View Full Version : PRIMA MAZZATA IN TESTA PER X800?
PSYCOMANTIS
01-07-2004, 20:01
http://www.rage3d.com/board/showthread.php?t=33767223
Apparently a reliable source states the X800 series will not be able to reproduce the new visual effects (v. displacement mapping) in the Far Cry 1.2 patch. A Shader Model 3.0 card like the 6800 series is required for these effects.
"Well people, it appears we will not be seeing virtual displacement, or offset, or any other new shaders the upcoming Far Cry patch will bring to the table. I've been talking to my press sources in Crytek/Ubi and a SM 3.0 compliant card is an absolute requirement to see any of the new eye candy"
This somewhat jives with the below statement from Crytek, that implies that SM3.0 adds new effects:
Ci ho capito poco niente......chi mi fà una breve traduzione? :D
Thunder82
01-07-2004, 20:08
Originariamente inviato da PSYCOMANTIS
http://www.rage3d.com/board/showthread.php?t=33767223
Apparently a reliable source states the X800 series will not be able to reproduce the new visual effects (v. displacement mapping) in the Far Cry 1.2 patch. A Shader Model 3.0 card like the 6800 series is required for these effects.
"Well people, it appears we will not be seeing virtual displacement, or offset, or any other new shaders the upcoming Far Cry patch will bring to the table. I've been talking to my press sources in Crytek/Ubi and a SM 3.0 compliant card is an absolute requirement to see any of the new eye candy"
This somewhat jives with the below statement from Crytek, that implies that SM3.0 adds new effects:
Il virtual displacement mapping (chiamato anche parallax mapping) si fa BENISSIMO anche con un ps2.0
poi potrebbe anche essere che nVidia ha dato una fracca di soldi alla crytek per evitare che ciò accada...
PSYCOMANTIS
01-07-2004, 20:15
Originariamente inviato da Thunder82
Il virtual displacement mapping (chiamato anche parallax mapping) si fa BENISSIMO anche con un ps2.0
poi potrebbe anche essere che nVidia ha dato una fracca di soldi alla crytek per evitare che ciò accada...
Soldi o no se la notizia venisse confermata questa sarebbe una bella mazzata per Ati che ha fatto di Far Cry il suo cavallo di battaglia. Le x800xt non sono nemmeno uscite e gia' devono fare a meno di qualcosa.....
Thunder82
01-07-2004, 20:25
Originariamente inviato da PSYCOMANTIS
Soldi o no se la notizia venisse confermata questa sarebbe una bella mazzata per Ati che ha fatto di Far Cry il suo cavallo di battaglia. Le x800xt non sono nemmeno uscite e gia' devono fare a meno di qualcosa.....
vedrai che qualcuno farà un wrapper...
[K]iT[o]
01-07-2004, 20:35
Mai pensato che forse si tratta di un bug? ;)
patch 1,2?????????????????????
dove??????????????????
che migliorie porta????????????
Ma rotfl, quando leggo ste cose mi passa la voglia di comprare i giochi.
Originariamente inviato da DjLode
Ma rotfl, quando leggo ste cose mi passa la voglia di comprare i giochi.
Perchè "i giochi"? Al limite basterebbe non comprare Far Cry... ;)
Originariamente inviato da PSYCOMANTIS
http://www.rage3d.com/board/showthread.php?t=33767223
... ... ...
Solo un paio di cose:
1- questa notizia non è ancora confermata.
2- il titolo che hai messo a 'sto thread (e come l'hai messo... TUTTOMAIUSCOLO) è avvilente. E non solo per i possessori di X800.
nvidia con tutto il suo peso politico farà di tutto per far utilizzare lo sm3.0 dai sviluppatori, e di questo non mi rammarico (non solo perchè ho una GT) ma perchè mi piacciono cmq le innovazioni piccole o grandi che siano.
lo sm3.0 inoltre porterà anche dei piccoli incrementi di prestazioni, potendo effettuare più cose in una singola passata.
Lo ripeto per me ati è stata fin troppo conservatrice sul piano tecnologico con questo R420 che necessita di oltre 100Mhz in più per stare dietro alla nuova architettura di nvidia.
Bye
Originariamente inviato da PSYCOMANTIS
Soldi o no se la notizia venisse confermata questa sarebbe una bella mazzata per Ati che ha fatto di Far Cry il suo cavallo di battaglia. Le x800xt non sono nemmeno uscite e gia' devono fare a meno di qualcosa.....
non penso che sia stata ati a fare di far cry il suo cavallo di battaglia, semmai erano le prestazioni che ne uscivano fuori a farne il cavallo di battaglia della x800... se così non fosse col cavolo che sarebbe uscita la pitch 1.2 ;)
Originariamente inviato da Nie73
non penso che sia stata ati a fare di far cry il suo cavallo di battaglia, semmai erano le prestazioni che ne uscivano fuori a farne il cavallo di battaglia della x800... se così non fosse col cavolo che sarebbe uscita la pitch 1.2 ;)
abitrulez
01-07-2004, 22:21
io credo proprio che alla fine prendero una bella x800 di abit allora ho proprio deciso credo ! d'altro canto se abit non produce piu le schede video con dentro i chipset nvidia allora vuol dire che non sono piu tanto valide dato che abit ha sempre cercato di produrre le cose migliori sul mercato se nvdia facesse delle cose buone abit sicuramente avrebbe continuato a produrle.
a proposito qualcuno mi spiega che cosa e' il paralax mapping e il 3dc ?
grazie mille ciao a tutti
ah ragazzi non sapete se ce un sito di abit italiano ?
Originariamente inviato da abitrulez
ah ragazzi non sapete se ce un sito di abit italiano ?
http://www2.abit.com.tw/page/it/index.php
abitrulez
01-07-2004, 22:32
Originariamente inviato da MaBru
http://www2.abit.com.tw/page/it/index.php
grazie papa !
Thunder82
01-07-2004, 22:38
Originariamente inviato da PSYCOMANTIS
Soldi o no se la notizia venisse confermata questa sarebbe una bella mazzata per Ati che ha fatto di Far Cry il suo cavallo di battaglia. Le x800xt non sono nemmeno uscite e gia' devono fare a meno di qualcosa.....
Certo che è proprio squallido da parte di nVidia pagare i produttori di giochi perchè diano effetti avanzati solo alle sue schede e non a quelle della concorrenza (quando potrebbero benissimo visualizzarli)...
Non vorrei che nVidia punti troppo su sti SM3.0 come fece ai tempi della GF1/2 col T&L che pur essendo inutile all'epoca segò via 3dfx :rolleyes:
Originariamente inviato da abitrulez
grazie papa !
:wtf:
abitrulez
01-07-2004, 22:42
http://www.hothardware.com/viewarticle.cfm?articleid=533
si ora mi sono totalmente convinto a prendere una x800 guardate qua che roba adesso capisco perche abit ha deciso di fare solo schede radeon
Nelson Muntz
01-07-2004, 22:54
mah... speriamo non si vada (come purtroppo invece sembra) nella direzione di una sempre maggior esclusività gioco<-->scheda... :rolleyes:
FarCry è un gioco "sponsorizzato nvidia" e non mi stupirei facessero in modo che certi effetti non vengano eseguiti dalla concorrenza (pur potendolo)...
Stessa cosa potrebbe succedere con HL2 (sponsorizzato ATI) e il 3DC...
Thunder82
01-07-2004, 22:57
In un prossimo futuro ci toccherà avere 2 schede da intercambiare a seconda del gioco a cui vogliamo giocare?...
se nvidia è riuscita a far implementare i ps3 è positivo, se è riuscita anche a non far girare come potrebbe la concorrenza allora mi fan girare le balle a me :mad:
Dumah Brazorf
01-07-2004, 23:41
Che bello, sono proprio dei geni alla cryteck, le nuove migliorie non saranno accessibili al 99% delle schede in circolazione! :D
Oggi ho letto sempre su rage3D che qualcuno affermava che fra 2-3 mesi tutti i giochi avrebbero usato SM 3.0.
Come mai non credo a nessuna delle 2 affermazioni? :D :D
Ma va la va... :rolleyes:
Dreadnought
01-07-2004, 23:42
Originariamente inviato da dwfgerw
nvidia con tutto il suo peso politico farà di tutto per far utilizzare lo sm3.0 dai sviluppatori, e di questo non mi rammarico (non solo perchè ho una GT) ma perchè mi piacciono cmq le innovazioni piccole o grandi che siano.
lo sm3.0 inoltre porterà anche dei piccoli incrementi di prestazioni, potendo effettuare più cose in una singola passata.
Lo ripeto per me ati è stata fin troppo conservatrice sul piano tecnologico con questo R420 che necessita di oltre 100Mhz in più per stare dietro alla nuova architettura di nvidia.
Bye
Ma che peso politico, quando finisce il cash voglio vedere come fa a tirare avanti la baracca... fino ad ora si è fatta ottimizzare bit a bit il codice dei programmatori, non penso che riuscirà a farlo ancora per molto.
Chiaramente riesce al massimo a comprarsi qualche software house come in questo caso, ma quando chi usa la 6800 si accorgerà che il guadagno in qualità video è minimo non gliene fregherà nulla e continuerà a giocare.
Originariamente inviato da abitrulez
io credo proprio che alla fine prendero una bella x800 di abit allora ho proprio deciso credo ! d'altro canto se abit non produce piu le schede video con dentro i chipset nvidia allora vuol dire che non sono piu tanto valide dato che abit ha sempre cercato di produrre le cose migliori sul mercato se nvdia facesse delle cose buone abit sicuramente avrebbe continuato a produrle.
a proposito qualcuno mi spiega che cosa e' il paralax mapping e il 3dc ?
grazie mille ciao a tutti
ah ragazzi non sapete se ce un sito di abit italiano ?
NO COMMENT !
Che dire nvidia non si smentisce mai.
Sono ancora più convinto che dopo la 4600 nessuna scheda nvidia entrerà mai più nel mio case.
Oviamente secondo mè...;)
Originariamente inviato da Lakitu
Perchè "i giochi"? Al limite basterebbe non comprare Far Cry... ;)
Non credo sarà l'unico esempio di come i soldi possono far fare i giochi :)
Considera che Far Cry è un bel pezzo che è uscito, lo usano come test principale e le Ati (essendo più consone a macinare shader) erano risultate sempre più veloci (la generazione precedente era ancora peggio) e quando uscirà HL2 e Doom3 non lo considererà più nessuno e che quindi lo stanno trasformando nel cavallo di battaglia attuale della tecnologia Nvidia.
Non mi piace, un gioco a meno che non sia sponsorizzato (leggi commissionato) da una certa società dovrebbe impegnarsi a funzionare su ogni cosa. Naturalmente se le caratteristiche dell'HW lo permettono. E che non mi si venga a dire che per funzionare ci vogliono i VS3 :)
Vedremo in doom3, Hl2 e Stalker se l'implementazione dei ps 3.0 porteraà qualche vantaggio, se non addirittura dopo.
In Farcry se tramite patch aggiungono qualche miglioria ben venga, non credo che il peso di nvidia influenzi le scelte dei programmatori in modo così evidente, semplicemente tenderà a comportarsi meglio su una scheda più evoluta come architettura di base.
Pk77
Originariamente inviato da abitrulez
http://www.hothardware.com/viewarticle.cfm?articleid=533
si ora mi sono totalmente convinto a prendere una x800 guardate qua che roba adesso capisco perche abit ha deciso di fare solo schede radeon
Scusami, ma la 6800gt vince a frequenze standard in quasi tutti i bench :boh:
Certo, di prezzo ora come ora la x800pro se non sbaglio è qualche decina di € sotto, ma i risultati si vedono dalle prove (e non solo da news più o meno confermate e/o attendibili)
Poi non date troppo peso alle mie affermazioni, vi parla uno che dopo aver abbandonato la mitica voodoo2 12mb ha fatto la trafila Geforce DDR -> Geforce3 -> Ti4200 -> Ti4800se (ma quando arriva quest' ultima da Creative?? :mad: )
Anand ha testato la patch 1.2 di Far Cry.
http://www.anandtech.com/video/showdoc.html?i=2102
Originariamente inviato da UltimateBou
certamente mi compro una scheda di quel tipo per giocarci a 320x240 senza filtri.... :rolleyes: a sto punto mi tengo la R8500...
guarda i test con filtri soprattutto ad high res e vedrai il motivo della scelta da parte di abitrulez.
P.S.
con il temporal antialiasing, monitor permettendo, i risultati con antialising attivo sulle X800 sarebbero più elevati.
Ho capito... non avevo ossevato la relativa tabella dei filtri :muro:
Ma che PC bisogna avere per far girare Far Cry a 1600x1200 con tutti i filtri attivati? :eek:
Lì parla di P4 3.2, ma mi pare ancora poco vedendo certi fps! Forse le vere potenzialità delle schede verranno fuori ancora più avanti...
PSYCOMANTIS
02-07-2004, 09:30
Anandtech ha recensito la patch 1.2 dicendo che a livello visivo sm2 (ati) ed sm3 (nvidia) sono difficilmente distinguibili, a livello di prestazioni pero' guardate un po'.......con filtri attivati a 1600x1200 dove prima nvidia ne prendeva da tutti adesso succede esattamente l'opposto.
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2788.png
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2786.png
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2790.png
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2792.png
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2794.png
Originariamente inviato da PSYCOMANTIS
Anandtech ha recensito la patch 1.2 dicendo che a livello visivo sm2 (ati) ed sm3 (nvidia) sono difficilmente distinguibili, a livello di prestazioni pero' guardate un po'.......con filtri attivati a 1600x1200 dove prima nvidia ne prendeva da tutti adesso succede esattamente l'opposto.
INCREDIBILE!! la 6800gt davanti alla xt platinum!
Minkiaaaaaaaaaa :eek:
A sto giro le Geppetto spakkano, grandi schede davvero, quasi quasi ... :sofico:
Jedi_Master
02-07-2004, 09:42
Originariamente inviato da Thunder82
In un prossimo futuro ci toccherà avere 2 schede da intercambiare a seconda del gioco a cui vogliamo giocare?...
Purtroppo e' proprio quello che qualcuno vorrebbe.....
Nessuno si ricorda una news di un po' di tempo fa' proprio
su questo argomento??
sigh :(
Originariamente inviato da UltimateBou
siamo sempre li :D
non mi compro la X800PRO se la devo montare su un 486 :D
è normale che bisogna essere opulati nelle scelte e nel bilanciare un sistema.
E cmq ormai cpu da 100€ o poco + da overcloccare con risultati > 3ghz (o 3000+) ce ne sono diverse e vanno già alla grande per una scheda così.
e poi ripeto, se hai un buon monitor con il temporal antialiasing (appena decentemente supportato dai driver, ma credo sia questione di poco...), ti imposti l'AA 2x ed a seconda del pattern (e del gioco che non deve avere immagini statiche... e far cry per esempio va benissimo) hai lo stesso risultato visivo di un AA4x o + con le prestazioni di un AA2x
Si ma allora in un certo senso decade il discorso "potenza della scheda video"... se ad un certo punto per ottenere gli 80 fps in un gioco con 1600x1200 e filtri attivati ci devo abbinare una cpu che opera a 3ghz e passa qui si fanno altri conti! Sono soldini che partono, e non pochi. Certo, chi si và a comprare una scheda di questo range probabilmente non ha tutti questi problemi finanziari, ma se devo mettere lì 2000€ solo tra mobo, cpu, ram buona (magari 1gb) e scheda video di ultima generazione probabilmente mi accontento di non avere i filtri attivati!
A volte i test che circolano in rete mi sembrano assurdi... preferirei una scheda video che mi fà 200fps a risoluzioni e filtri "normali" (sono di un' altra politica rispetto allo "spendo 500€ e ci campo 2 anni", preferisco spenderne 70 ogni anno per una scheda usata di medio livello)
oscuroviandante
02-07-2004, 10:06
Originariamente inviato da Thunder82
In un prossimo futuro ci toccherà avere 2 schede da intercambiare a seconda del gioco a cui vogliamo giocare?...
magari con le schede pci express si potrebbe fare un giochino del genere...
però mi immagino i conflitti con i driver ATI e NVIDIA ...
si rischia una combattimento con i dischi di memoria stile TRON :rotfl:
cmq non capisco queste continue polemiche su quello che fanno ATI e NVIDIA ..una competizione così arcigna non fa altro che portare dei pro agli utenti.
se solo nel settore auto ci fosse una tale disfida tra marchi avremmo davvero macchine che con 1 litro di carburante fanno 1000 km e che si guiderebbero da sole...
A te 600€ danno appagamento videoulico e relativa gioia, a me 600€ in meno nel portafoglio danno tristezza :D
E' tutto basato su come la persona intende le cose... io penso che mettere ora come ora 500€ per una scheda video solo per giocare dignitosamente ad un gioco (far cry) è da pazzi.
Di certo con 1200€ non si avrà un 486, però cavolo, abbiamo una concezione di quello che mettiamo sul tavolo? Se per avere 30fps in più per attivare filtri e mettere a risoluzioni sovraumane io mi prendo una 9800pro (150€ usata) e un processore sui 2ghz e qualcosa... ci gioco allo stesso, dignitosamente, e l' anno prossimo ricambio ancora il tutto!
Ripeto, questo è un discorso fuori dal confronto ati/nvidia, un po' (tanto) OT ;)
Lasciando perdere tutto ciò (è questione di opinioni personali) come commentiamo il fatto che con un' altra fonte i risultati dei test capovolgono la situazione?? :eek:
Ma qualcuno ha letto le pagine di anandtech o si è limitato a sleggiucchiare quelle quattro figure?
Livello research:
"Remember, this is an NVIDIA provided demo and highlights the performance benefits of the new rendering path"
Livello regulator:
"NVIDIA supplied this demo, and its modest improvement shows that not all performance gains are monumental"
Livello training:
"This NVIDIA supplied level shows smaller improvement than the other (just slightly more impressive than our custom demos)"
Livello Volcano:
"This is another NVIDIA supplied demo, and it shows the largest performance gains that we see in the SM3.0 render path"
Conclusioni:
"We didn't see much improvement from the new SM3.0 path in our benchmarks either"
"Image quality of both SM2.0 paths are on par with eachother, and the SM3.0 path on NVIDIA hardware shows negligable differences. The very slight variations are most likely just small fluctuations between the mathematical output of a single pass and a multipass lighting shader. The difference is honestly so tiny that you can't call either rendering lower quality from a visual standpoint. We will still try to learn what exactly causes the differences we noticed from CryTek"
Riguardo agli altri livello si ottengono aumenti di un paio di fps.
Originariamente inviato da UltimateBou
beh ma infatti tra qualche mese quando avrò la moneta adatta (spero :D), sarò davvero combattuto nella scelta! :D
P.S.
Ciao, è tanto che non ci si becca! :D
Io se dovessi prenderla ora prenderei probabilmente una Geppo, a me ste nuove Radeon convincono ben poco :)
Sta minestra puzza di marcio ... ormai :mc:
andreamarra
02-07-2004, 11:01
Originariamente inviato da DjLode
Ma qualcuno ha letto le pagine di anandtech o si è limitato a sleggiucchiare quelle quattro figure?
Livello research:
"Remember, this is an NVIDIA provided demo and highlights the performance benefits of the new rendering path"
Livello regulator:
"NVIDIA supplied this demo, and its modest improvement shows that not all performance gains are monumental"
Livello training:
"This NVIDIA supplied level shows smaller improvement than the other (just slightly more impressive than our custom demos)"
Livello Volcano:
"This is another NVIDIA supplied demo, and it shows the largest performance gains that we see in the SM3.0 render path"
Conclusioni:
"We didn't see much improvement from the new SM3.0 path in our benchmarks either"
"Image quality of both SM2.0 paths are on par with eachother, and the SM3.0 path on NVIDIA hardware shows negligable differences. The very slight variations are most likely just small fluctuations between the mathematical output of a single pass and a multipass lighting shader. The difference is honestly so tiny that you can't call either rendering lower quality from a visual standpoint. We will still try to learn what exactly causes the differences we noticed from CryTek"
Riguardo agli altri livello si ottengono aumenti di un paio di fps.
Praticamente negli altri bench (non pervenuti da nvidia) le prestazioni sono all'incirca come quelle dei bench precedenti?
Ci sono i riscontri SM2 vs SM3 e le differenze sono risibili.
OverClocK79®
02-07-2004, 11:12
Originariamente inviato da alinghi
INCREDIBILE!! la 6800gt davanti alla xt platinum!
infatti nn ci sono differenze a livello grafico...
ma con l'implementazione dei SH 3.0
nVidia ha recuperato il GAP dimostrandosi addirittura + veloce
infatti se nn sbaglio a parte effettino in + degli 3.0
uno dei vantaggi a livello di performance.....stava appunto nel fatto che erano + veloci nel fare le stesse cose dei 2.0
BYEZZZZZZZZZZZZZZZZ
Originariamente inviato da OverClocK79®
infatti nn ci sono differenze a livello grafico...
ma con l'implementazione dei SH 3.0
nVidia ha recuperato il GAP dimostrandosi addirittura + veloce
infatti se nn sbaglio a parte effettino in + degli 3.0
uno dei vantaggi a livello di performance.....stava appunto nel fatto che erano + veloci nel fare le stesse cose dei 2.0
BYEZZZZZZZZZZZZZZZZ
Deduco che il post di cui sopra sia passato totalmente inosservato :)
Ha recuperato il gap esattamente nei demo da lei forniti. La cosa che mi stupisce è vedere nei demo da lei forniti la 6800 sotto la XT.
andreamarra
02-07-2004, 11:17
Originariamente inviato da DjLode
Deduco che il post di cui sopra sia passato totalmente inosservato :)
Ha recuperato il gap esattamente nei demo da lei forniti. La cosa che mi stupisce è vedere nei demo da lei forniti la 6800 sotto la XT.
E a tuo giudizio scrivere "PRIMA MAZZATA...?" è esagerato o è veritiero?
E soprattutto, nei test reali come si comporta la NV40 con i 3.0?
OverClocK79®
02-07-2004, 11:19
cmq questi sono tutti test fatti a 1600x1200
( che a me andrebbero anke bene)
ma a ris + umane????
tipo 1024 filtri manetta o 1280 liscio e filtri manetta?
BYEZZZZZZZZZZZZZZ
Thunder82
02-07-2004, 11:26
Nessuno ha letto bene?
Praticamente vengono usati i VS3.0 per accelerare il rendering dell'erba
E vengono usati i PS3.0 per renderizzare l'illuminazione in un'unica passata (un'unica passata ma più intensa!!!) Il guadagno NON E' dovuto al fatto che si eseguono meno istruzioni (il numero di istruzioni a parità di qualità *DOVREBBE* essere identico...) ma al fatto che vengono risparmiati i tempi di set-up per ricevere i dati per la seconda passata, terza, ecc...
Quindi i guadagni eclatanti si dovrebbero avere soltanto di notte con un'infinità di punti luce in mezzo a un mare di erba e con la luce della torcia accesa. Chiaro che (*guarda caso*) nVidia ha fornito proprio dei demo ambientati in queste condizioni ad Anandtech in modo da convincere che gli incrementi sono sempre così (dell'ordine dei 10fps a 1600x1200) anche se, come dimostra Anand, di solito il guadagno è di 1-2fps.
Ma adesso si ritorna al discorso qualità...
LIVELLO VOLCANO: guadagno sm3.0 +10fps (circa)
Ati sm2.0
http://images.anandtech.com/reviews/video/nvidia/farcrysm3/volcanoatismall.jpg
nV sm3.0
http://images.anandtech.com/reviews/video/nvidia/farcrysm3/volcanosm3small.jpg
Come si vede chiaramente nello shot NV il centro del riflesso della luce è molto meno intenso. Probabilmente hanno eliminato qualche istruzione di "overbright" nello sm3.0 per far risparmiare preziosi cicli GPU ad NV40. *GUARDA CASO* questo è proprio il demo in cui la 6800 guadagna di più con lo sm3.0
LIVELLO REGULATOR: guadagno sm3.0 +5fps (circa)
Ati sm2.0
http://images.anandtech.com/reviews/video/nvidia/farcrysm3/regulatoratismall.jpg
nV sm3.0
http://images.anandtech.com/reviews/video/nvidia/farcrysm3/regulatorsm3small.jpg
Vi riporto quello che scrive Anandtech su questo screen
Looking closely (swapping quickly back and forth between the images), it is apparent that the glow of the light above the door is a little dimmer when the new rendering techniques are applied (really, we promise its different). This small a difference doesn't really add up to anything in terms of game play, but it does let us know that the new lighting model isn't a mathematically identical solution.
Anche qua l'alone di luce (glow) con NV40 intorno alla luce è meno luminoso rispetto allo SM2.0 di ATi (che è identico allo SM2.0 della stessa nVidia)
CONCLUSIONE
Qualcosa nelle istruzioni è stato chiaramente cambiato nei pixel shader, quindi restituendo 2 output innegabilmente diversi le prestazioni non sono confrontabili fra sm2.0 e sm3.0
Aspettiamo cosa dice Crytek riguardo alla differenza dell'intensità dell'illuminazione fra sm2.0 e sm3.0
Originariamente inviato da andreamarra
E a tuo giudizio scrivere "PRIMA MAZZATA...?" è esagerato o è veritiero?
Sono indeciso se etichettare tutto come una buona mossa di marketing da parte di Nvidia o da una bella caduta di stile di Crytek. Sinceramente uno schieramento così palese non mi piace.
Cmq rimane il fatto che è esagerato, anche perchè per ottenere tali comportamenti c'è bisogno di una patch e di driver appositi e in quella patch non si sa cosa sia stato fatto (così come nei driver, perdonami il sospetto ma Nvidia ci ha abituati a questa cosa). Fossero stati ottenuti subito, potevo dare ragione al titolo del thread.
E soprattutto, nei test reali come si comporta la NV40 con i 3.0?
Ah boh :)
Sinceramente non lo so e non riesco ad immaginarlo perchè per ottenere la risposta bisognerebbe vedere una cosa programmata allo stesso identico modo, ma per usare in un acso lo SM2.0b e nel secondo lo SM3. Senza differenze reali di codice eseguito, ma solo di istruzioni per sfruttare una o l'altra cosa, si potrebbe avere un raffronto, ma temo non lo avremo mai se non da prg come shader mark che sono free e open, così da poter scoprire eventuali magagne.
Sinceramente non sono i 2fps che mi fanno gridare al miracolo, si ottengono prestazioni ben superiori ottimizzando i driver.
andreamarra
02-07-2004, 11:29
Originariamente inviato da Thunder82
Nessuno ha letto bene?
Praticamente vengono usati i VS3.0 per accelerare il rendering dell'erba
E vengono usati i PS3.0 per renderizzare l'illuminazione in un'unica passata (un'unica passata ma più intensa!!!) Il guadagno NON E' dovuto al fatto che si eseguono meno istruzioni (il numero di istruzioni a parità di qualità *DOVREBBE* essere identico...) ma al fatto che vengono risparmiati i tempi di set-up per ricevere i dati per la seconda passata, terza, ecc...
Quindi i guadagni eclatanti si dovrebbero avere soltanto di notte con un'infinità di punti luce in mezzo a un mare di erba e con la luce della torcia accesa. Chiaro che (*guarda caso*) nVidia ha fornito proprio dei demo ambientati in queste condizioni ad Anandtech in modo da convincere che gli incrementi sono sempre così (dell'ordine dei 10fps a 1600x1200) anche se, come dimostra Anand, di solito il guadagno è di 1-2fps.
Ma adesso si ritorna al discorso qualità...
LIVELLO VOLCANO: guadagno sm3.0 +10fps (circa)
Ati sm2.0
http://images.anandtech.com/reviews/video/nvidia/farcrysm3/volcanoatismall.jpg
nV sm3.0
http://images.anandtech.com/reviews/video/nvidia/farcrysm3/volcanosm3small.jpg
Come si vede chiaramente nello shot NV il centro del riflesso della luce è molto meno intenso. Probabilmente hanno eliminato qualche istruzione di "overbright" nello sm3.0 per far risparmiare preziosi cicli GPU ad NV40. *GUARDA CASO* questo è proprio il demo in cui la 6800 guadagna di più con lo sm3.0
LIVELLO REGULATOR: guadagno sm3.0 +5fps (circa)
Ati sm2.0
http://images.anandtech.com/reviews/video/nvidia/farcrysm3/regulatoratismall.jpg
nV sm3.0
http://images.anandtech.com/reviews/video/nvidia/farcrysm3/regulatorsm3small.jpg
Vi riporto quello che scrive Anandtech su questo screen
Looking closely (swapping quickly back and forth between the images), it is apparent that the glow of the light above the door is a little dimmer when the new rendering techniques are applied (really, we promise its different). This small a difference doesn't really add up to anything in terms of game play, but it does let us know that the new lighting model isn't a mathematically identical solution.
Anche qua l'alone di luce (glow) con NV40 intorno alla luce è meno luminoso rispetto allo SM2.0 di ATi (che è identico allo SM2.0 della stessa nVidia)
CONCLUSIONE
Qualcosa nelle istruzioni è stato chiaramente cambiato nei pixel shader, quindi restituendo 2 output innegabilmente diversi le prestazioni non sono confrontabili fra sm2.0 e sm3.0
Aspettiamo cosa dice Crytek riguardo alla differenza dell'intensità dell'illuminazione fra sm2.0 e sm3.0
Effettivamente l'illuminazione è differente..
non per fare il "guastafeste"...sui primi due screen non c'è niente da dire..Nvidia fa molta "meno luce"...ma gli altri due mi sembrano identici!:eek:
Effettivamente sembrano identici anche a me :)
Forse si vede qualcosa negli ingrandimenti o mettendoli al pari e vicini sullo schermo.
Dreadnought
02-07-2004, 11:39
Stavo per postare anche io anandtech, chiaramente è la solita banfata stile nvidia :)
C'è da considerare che la 6800 sicuramente è un prodotto più longevo della X800, ma ricordiamo che la X800 non è solo Pixel Shader 2.0, ma ha qualcosa di più già di partenza, che è una via di mezzo tra i 3.0 e i 2.0, quindi non è che sia tanto indietro.
Nino Grasso
02-07-2004, 11:41
la situazione in questo post è sempre la stessa... nvidiari (MIRACOLO CHEBBELLI I SM3.0) e atisti (che cagata, nvidia sempre prende per il culo gli altri)...
io l'unico errore che vedo è stato da parte di ATi che non ha deciso di implementare i nuovi SM... voi direte, sono inutili la qualità è la stessa... ma alla fine gli SM2.0 rispetto all'1.0... adesso vengono usati i 2.0 ma siete davvero sicuri che ne sfruttano appieno tutte le caratteristiche, o che fossero perfettamente riproducibili con gli sm1.0??
quindi alla fine suppongo che la mossa di nVidia non è assolutamente sleale e dopo le vicissitudini con l'af di ATi direi che nVidia è una santa (non mi linciate è un'iperbole :D) in confronto... cmq i demo offerti da nVidia mi sembra sia ovvio che diano un gain maggiore alle nVidia...
cmq analizzando le tabelle: la differenza c'è... non è abissale, spesso di 2fps, spesso anche di 10/15 (che non sono bruscolini quando si va a 40fps)... gli sm3.0 possono anche contenere sensibili migliorie grafiche rispetto ai ps2.0 (ma se non si raggiungono i limiti massimi teorici anche coi ps2.0 possono venire realizzati) e poi che il quadro prestazionale (attenendoci a quei test) è radicalmente variato secondo me... certo vedere la gt meglio della XT PE mi sa un po' di banfa... ma non prendiamo sempre le novità come stronzate...
Thunder82
02-07-2004, 11:43
Originariamente inviato da Verro
non per fare il "guastafeste"...sui primi due screen non c'è niente da dire..Nvidia fa molta "meno luce"...ma gli altri due mi sembrano identici!:eek:
infatti negli altri 2 la differenza è molto minore, ma anche il guadagno in termini di prestazioni è molto minore (vatti a vedere gli screen originali su anandtech, questi sono molto compressi) sull'ordine dei 3 fps invece di 10.
OverClocK79®
02-07-2004, 11:44
infatti come diceva DJlode qui è anke una questione di implementazione da parte dei programmatori.....
gli SM3.0 devono cmq essere implementati o da patch o da altro.....
su titoli che usciranno dovremmo averli nativi
ma come può essere implimentato con patch un 3.0 lo può essere un 2.0b magari.....
e sarebbe infatti interessante....vedere cosa possono fare messi a confronto se un applicativo che li utilizza entrambi.....
cmq imho HL2 e Doom3 hanno subito gli ultimi ritardi perchè ognuna delle 2 case ha voluto che fosse implementata la propria tecnologia nel motore
2.0b per HL2
3.0 per Doom3
BYEZZZZZZZZZZZ
Thunder82
02-07-2004, 11:46
Originariamente inviato da Lestat.me
io l'unico errore che vedo è stato da parte di ATi che non ha deciso di implementare i nuovi SM... voi direte, sono inutili la qualità è la stessa... ma alla fine gli SM2.0 rispetto all'1.0... adesso vengono usati i 2.0 ma siete davvero sicuri che ne sfruttano appieno tutte le caratteristiche, o che fossero perfettamente riproducibili con gli sm1.0??
Infatti gli sm2.0 NON sono riproducibili con gli sm1.0, perchè gli 1.0 usano dati INTEGER mentre i 2.0 usano dati FLOATING POINT. Questa è la principale differenza. Invece gli sm3.0 sono riproducibili con i 2.0
OverClocK79®
02-07-2004, 11:48
Originariamente inviato da Lestat.me
io l'unico errore che vedo è stato da parte di ATi che non ha deciso di implementare i nuovi SM... voi direte, sono inutili la qualità è la stessa... ma alla fine gli SM2.0 rispetto all'1.0... adesso vengono usati i 2.0 ma siete davvero sicuri che ne sfruttano appieno tutte le caratteristiche, o che fossero perfettamente riproducibili con gli sm1.0??
infatti nn me lo aspettavo manco io da Ati....
una marca che da sempre ha cercato l'avanzamento tecnologico e le ultime novità
vedi 8500 che era DX8.1 quando la Ti500 era 8.0 (all'epoca avevo la Ti500 :p)
ma ha spiegato la sua scelta giusta o sbagliata che sia....
di certo se anke ATi avesse implementato i 3.0
credo che questi ultimi sarebbero diventati standard un po' prima.....
BYEZZZZZZZZZZZZZZZ
Nino Grasso
02-07-2004, 11:49
muah... secondo me vedi che + che hanno tolto effetti di overbright per fare risparmiare passaggi (mi sembra molto banale) hanno applicato una sorta di correzione della gamma... ed il risultato è molto + piacevole negli SM3.0... ma come al solito siete troppo impegnati per sputtanare nVidia quindi fate pure...;)
OverClocK79®
02-07-2004, 11:51
???
bhe li allora scendi nel soggettivo
personalmente preferisco il risultato Ati in quanto se è una luce
luce sia...
se è un riflesso di una luce.....la luce è accesa quindi bella bianca....
quella dei 3.0 sembra + fioca quasi partisse da una luce con plafoniera sporca :p
BYEZZZZZZZZZZZZZZ
Thunder82
02-07-2004, 11:51
Originariamente inviato da Lestat.me
muah... secondo me vedi che + che hanno tolto effetti di overbright per fare risparmiare passaggi (mi sembra molto banale) hanno applicato una sorta di correzione della gamma... ed il risultato è molto + piacevole negli SM3.0... ma come al solito siete troppo impegnati per sputtanare nVidia quindi fate pure...;)
Chi è che sputtana nVidia? Io ho solo detto che hanno cambiato qualcosa a livello di istruzioni in quanto l'immagine restituita è differente, e quindi le prestazioni non sono confrontabili.
Livello research:
"Remember, this is an NVIDIA provided demo and highlights the performance benefits of the new rendering path"
"Ricordate, questa è una demo fornita da Nvidia ed evidenzia i vantaggi di prestazioni del nuovo rendering patch"
Livello regulator:
"NVIDIA supplied this demo, and its modest improvement shows that not all performance gains are monumental"
"Nvidia ha fornito questa demo e il suo miglioramento modesto mostra che non tutti i guadagni di prestazioni sono "monumentali" "
Livello training:
"This NVIDIA supplied level shows smaller improvement than the other (just slightly more impressive than our custom demos)"
"Questo livello fornito da NVIDIA mostra un miglioramento più piccolo dell'altro (appena leggermente più impressionante delle nostre demo personalizzate)"
Livello Volcano:
"This is another NVIDIA supplied demo, and it shows the largest performance gains that we see in the SM3.0 render path"
"Questa è un'altra demo fornita da Nvidia e mostra i guadagni di prestazioni più grandi che vediamo nell' (con il) SM3.0 render patch"
Conclusioni:
"We didn't see much improvement from the new SM3.0 path in our benchmarks either"
"Image quality of both SM2.0 paths are on par with eachother, and the SM3.0 path on NVIDIA hardware shows negligable differences. The very slight variations are most likely just small fluctuations between the mathematical output of a single pass and a multipass lighting shader. The difference is honestly so tiny that you can't call either rendering lower quality from a visual standpoint. We will still try to learn what exactly causes the differences we noticed from CryTek"
"...Le variazioni molto leggere sono più probabilmente piccole fluttuazioni tra il prodotto matematico di un single pass e un ombreggiatura di illuminazione multipass. La differenza è onestamente così minuscola..."
...niente di nuovo sul fronte Nvidia...:rolleyes:
ciao!
Nino Grasso
02-07-2004, 11:56
allora sei d'accordo di rifare tutti i test con l'af per le ATi... e scusa siamo coerenti dai!!! e cmq anche a nfsu ci sono differenze nella gamma usata nei pixel shader... annulliamo pure quei test? dai la gamma non fa le prestazioni...
cmq... muah... io una riflessione così potente della luce non la avrei mai con una torcia portatile... e nemmeno con un neon cazzo... sembra che il buon caro non mi ricordo come si chiama si porti d'appresso un riflettore da stadio!!! e poi manco se quello a terra fosse marmo (se era marmo è solo un colpo di sborronosità fare il bump perché il marmo di solito è liscio :D) quindi secondo me è + veritiero il risultato SM3.0... poi ovvio che si scende nel soggettivo... ma è come quel test di hl2... che mostrava le capacità del source engine... con tutti i pixel spiattellati là in bella mostra... ovviamente un bel risultato, ma troppo esagerato per poter risultare realistico... :D
Nino Grasso
02-07-2004, 12:00
muha alla fine la situazione è sempre la stessa a mio parere... due fronti vogliono imporsi sull'altro... le schede sono molto simili fra di loro (inutile negarlo) come prestazioni... la scelta ricade in base ai propri "gusti da tifo" perché alla fine una XT PE è perfettamente longeva o quasi come una 6800 per dire (non ultra)... però queste piccole migliorie, i contatti con le case "partner" e tutte le manovre commerciali di una casa e dell'altra non sono assolutamente da vedere come trucchetti, ottimizzazioni illecite e non, anzi io le vedrei + che altro come un supporto in + da parte di chi mi vende la scheda... e poi Crytek lavora pure con ATi per dire,... mica abbiamo un monopolio fascista cazzalora
Thunder82
02-07-2004, 12:02
Originariamente inviato da Lestat.me
allora sei d'accordo di rifare tutti i test con l'af per le ATi... e scusa siamo coerenti dai!!! e cmq anche a nfsu ci sono differenze nella gamma usata nei pixel shader... annulliamo pure quei test? dai la gamma non fa le prestazioni...
cmq... muah... io una riflessione così potente della luce non la avrei mai con una torcia portatile... e nemmeno con un neon cazzo... sembra che il buon caro non mi ricordo come si chiama si porti d'appresso un riflettore da stadio!!! e poi manco se quello a terra fosse marmo (se era marmo è solo un colpo di sborronosità fare il bump perché il marmo di solito è liscio :D) quindi secondo me è + veritiero il risultato SM3.0... poi ovvio che si scende nel soggettivo... ma è come quel test di hl2... che mostrava le capacità del source engine... con tutti i pixel spiattellati là in bella mostra... ovviamente un bel risultato, ma troppo esagerato per poter risultare realistico... :D
La questione non è quale sia più veritiera delle 2, ma il fatto che restituendo output DIVERSI le prestazioni non sono confrontabili!!!
andreamarra
02-07-2004, 12:03
Originariamente inviato da Thunder82
La questione non è quale sia più veritiera delle 2, ma il fatto che restituendo output DIVERSI le prestazioni non sono confrontabili!!!
Credo sia impossibile da farlo capire.
Nino Grasso
02-07-2004, 12:07
muah... secondo te la luminosità di un effetto rende l'effetto differente? allora non confrontiamo + le schede coi filtri... dato che il risultato e le tipologie di filtri sono diversi, il risultato è diverso in tantissimi giochi... si gridava allo scandalo con le ottimizzazioni nVidia per l'af, l'ha fatto ATi "grande tecnologia"... ma dai ragazzi, sono il primo a dire quando ATi gioca bene o no, o quando è nVidia a farlo... e qua mi sa che nVidia abbia giocato meglio di ATi... facendo un chip meno overclockabile ma molto + versatile...
andreamarra
02-07-2004, 12:09
Originariamente inviato da Lestat.me
muah... secondo te la luminosità di un effetto rende l'effetto differente?
Ma stai scherzando? E' naturale che un oggetto renderizzato con una minore luminosità sia ben diverso da uno con maggiore luminosità.
Thunder82
02-07-2004, 12:11
Originariamente inviato da Lestat.me
muah... secondo te la luminosità di un effetto rende l'effetto differente?
Vabbè allora è inutile anche discutere se la pensi così... si vede che non hai la mentalità ingegneristica!
PSYCOMANTIS
02-07-2004, 12:20
Io mi auguro per Ati che Nvidia abbia fatto usare a Crytek qualche trucchetto anche perche' altrimenti la faccenda sarebbe davvero molto seria.
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2790.png
:rolleyes:
Attendo altre recensioni chiarificatrici....
andreamarra
02-07-2004, 12:25
Originariamente inviato da PSYCOMANTIS
Io mi auguro per Ati che Nvidia abbia fatto usare a Crytek qualche trucchetto anche perche' altrimenti la faccenda sarebbe davvero molto seria.
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2790.png
:rolleyes:
Attendo altre recensioni chiarificatrici....
Se consideri che rispetto ai vecchi bench (e non demo nvidia, ma bench) in questi test la nvidia a certe risoluzioni e filtri al massimo cadeva letteralmente sulle gambe...
Insomma, credo sia un pò difficile che una scheda che in questo gioco stava nettamente dietro (soprattutto a risoluzioni e filtri elevati) improvvisamente diventi il doppio di potenza.
Se poi è così, ottimo colpo di nvidia (o meglio, miracolo considerando i primi test)
Originariamente inviato da PSYCOMANTIS
Io mi auguro per Ati che Nvidia abbia fatto usare a Crytek qualche trucchetto anche perche' altrimenti la faccenda sarebbe davvero molto seria.
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2790.png
:rolleyes:
Attendo altre recensioni chiarificatrici....
Praticamente le Geppo in qst test hanno staccato le carene alle Radeon :confused:
Mah ...
Ragazzi non si capisce più un cavolo.
Qualcuno ci vuole prendere per il culo,:muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro:
Alberto Falchi
02-07-2004, 12:58
Originariamente inviato da Thunder82
La questione non è quale sia più veritiera delle 2, ma il fatto che restituendo output DIVERSI le prestazioni non sono confrontabili!!!
Prendi il reference rasterizer, prendi una radeon o confronta (con un programma, ovviamente) le differenze. Ora rifai la stessa cosa con le GeForce. COn nessuna delle due otterrai immagini identiche a quelle di riferimento
Pape
andreamarra
02-07-2004, 13:05
Originariamente inviato da Maury
Praticamente le Geppo in qst test hanno staccato le carene alle Radeon :confused:
Mah ...
Infatti.
Ora, perchè i primi test e i test fino a qualche giorno fa erano così favorevoli alla R420?
Si parlava insistentemente di flop nvidia in questo gioco (per errore dei programmatori).
Adesso è esaltazione nvidia e depressione ati.
http://www.xbitlabs.com/articles/video/display/farcry30_conclusion.html
"For an unknown reason the RADEON X800-series graphics products’ performance slightly dropped in FarCry version 1.2 compared to the version 1.1. The reasons for the drop are not clear, but may indicate that ATI also has some speed headroom with its latest family of graphics processors and the final judgement is yet to be made…"
http://www.xbitlabs.com/articles/video/display/farcry30_4.html
"NVIDIA seems to have a driver bug that results in very rough shadows in the game. This is unlikely to affect performance seriously as shadows in FarCry hardly require any significant computing power, though, this is something negative we can tell about the new set of drivers"
Mmmmmmm
goldorak
02-07-2004, 13:08
Originariamente inviato da PSYCOMANTIS
Soldi o no se la notizia venisse confermata questa sarebbe una bella mazzata per Ati che ha fatto di Far Cry il suo cavallo di battaglia. Le x800xt non sono nemmeno uscite e gia' devono fare a meno di qualcosa.....
Suvvia, e' Half-Life 2 il cavallo di battaglia di ATI non certo Far Cry.
OverClocK79®
02-07-2004, 13:15
R420
http://www.xbitlabs.com/images/video/farcry30/radeon_shadows.jpg
NV40
http://www.xbitlabs.com/images/video/farcry30/geforce_shadows.jpg
azzarola......i prob si sono invertiti???
le ombre scalettate renderizzate in questo modo le scazzava Ati con Splinter Cell ricordo
BYEZZZZZZZZZZZZZZZZ
PSYCOMANTIS
02-07-2004, 13:15
Originariamente inviato da DjLode
http://www.xbitlabs.com/articles/video/display/farcry30_conclusion.html
"For an unknown reason the RADEON X800-series graphics products’ performance slightly dropped in FarCry version 1.2 compared to the version 1.1. The reasons for the drop are not clear, but may indicate that ATI also has some speed headroom with its latest family of graphics processors and the final judgement is yet to be made…"
http://www.xbitlabs.com/articles/video/display/farcry30_4.html
"NVIDIA seems to have a driver bug that results in very rough shadows in the game. This is unlikely to affect performance seriously as shadows in FarCry hardly require any significant computing power, though, this is something negative we can tell about the new set of drivers"
Mmmmmmm
http://www.digit-life.com/articles2/gffx/nv40-3-p1.html
"There are evidently no fundamental changes in the relation of forces between GeForce 6800 Ultra and RADEON X800 XT. The former's performance has increased in some places, and now it's difficult to say which of them is the leader"
Gia' senza l'ausilio dei nuovi shader le geffo in versione retail e con i nuovi driver sono velocissime.
Thunder82
02-07-2004, 13:16
http://www.xbitlabs.com/articles/video/display/farcry30_10.html
Come mai la 5950 va MOLTO più piano con la patch 1.2? :D
Siore e Siori, ecco che dopo lo z-occlusion disattivato con le gf4, nVidia torna a castrare la generazione precedente :D :rolleyes:
http://www.xbitlabs.com/images/video/farcry30/fc_10x7_pure_catacombs.gif
Originariamente inviato da PSYCOMANTIS
Gia' senza l'ausilio dei nuovi shader le geffo in versione retail e con i nuovi driver sono velocissime.
Ah ma io non ho mai detto il contrario, solo che l'aggiunta dello SM3 e il calo di prestazioni non solo delle X800 ma anche delle GF precedente non hanno niente a che vedere l'uno con l'altro. Ma allora perchè si verificano con questa patch?
OverClocK79®
02-07-2004, 13:22
devono aver cannato qlkosa su sto benk la 6800GT perde di prestazioni rispetto alle altre 2....
forse hanno sbagliato a scrivere......
xla5950
spero risolvano con futuri driver.....
BYEZZZZZZZZZZZ
Thunder82
02-07-2004, 13:28
Originariamente inviato da OverClocK79®
xla5950
spero risolvano con futuri driver.....
io invece penso che siccome ora hanno un'architettura che va bene, non gliene frega più niente di ottimizzare gli shader alla morte per le FX buttandoci dentro FP16, sostituendo i ps2.0 con i ps1.x e via dicendo...
Mi dispiace molto per chi ha una FX ma purtroppo lo sapevo che con la nuova architettura molto più efficiente se ne sarebbero sbattuti altamente alla nVidia...
Cmq per quanto mi riguarda la scheda migliore ora come ora come rapporto prezzo/prestazioni è la 6800 liscia, magari a 250€ (penso fra poco arriverà a quei prezzi). Se si gioca fino a 1280x1024 puoi permetterti i filtri al max e va ben di + di una 9800xt...
Originariamente inviato da Thunder82
io invece penso che siccome ora hanno un'architettura che va bene, non gliene frega più niente di ottimizzare gli shader alla morte per le FX buttandoci dentro FP16, sostituendo i ps2.0 con i ps1.x e via dicendo...
Mi dispiace molto per chi ha una FX ma purtroppo lo sapevo che con la nuova architettura molto più efficiente se ne sarebbero sbattuti altamente alla nVidia...
Cmq per quanto mi riguarda la scheda migliore ora come ora come rapporto prezzo/prestazioni è la 6800 liscia, magari a 250€ (penso fra poco arriverà a quei prezzi). Se si gioca fino a 1280x1024 puoi permetterti i filtri al max e va ben di + di una 9800xt...
Potevano lasciare tutto com'era però invece che tornare indietro.
Sulla 6800 liscia, hai ragione ha un prezzo veramente allettante, anche per chi viene da una 5950 o da una 9700. Devo decidere se valga il cambio tra con una 9800.
andreamarra
02-07-2004, 14:06
Originariamente inviato da OverClocK79®
R420
http://www.xbitlabs.com/images/video/farcry30/radeon_shadows.jpg
NV40
http://www.xbitlabs.com/images/video/farcry30/geforce_shadows.jpg
azzarola......i prob si sono invertiti???
le ombre scalettate renderizzate in questo modo le scazzava Ati con Splinter Cell ricordo
BYEZZZZZZZZZZZZZZZZ
Ma che cazz... possibile che davvero dovremo comprare due schede e intercambiarle??' :muro:
Che è sta novità delle ombre scalettate??? :(
andreamarra
02-07-2004, 14:15
Originariamente inviato da UltimateBou
quindi mi sembra di aver capito che i test sono stati fatti su demo forniti da nvidia che sembrano pure essere stati riscritti in alcune parti (vedi differenze di luce negli shoot che contano, altro che..).
mah..
Anche questa cosa non è da sottovalutare...
In ogni caso, ripeto, trovo davvero disarmante il fatto che in tutti i test dell'universo la R420 disintegra la NV40 in Far Cry.
Stamattina leggo invece che la NV40 scarena letteralmente la R420 in Far Cry, ps3.0 o ps2.0 non ha importanza. Addirittura la NV40 (che crollava miseramente sulle gambe a certe risoluzioni e a certi filtri va molto meglio di R420 con risoluzioni e filtri minori).
Alè :D
Alberto Falchi
02-07-2004, 14:23
Originariamente inviato da andreamarra
In ogni caso, ripeto, trovo davvero disarmante il fatto che in tutti i test dell'universo la R420 disintegra la NV40 in Far Cry.
Sinceramente non mi sembra così disarmante: i driver possono fare miracoli a volte. Cmq dai test che ho fatto personalmente (usando bench'em all per far cry), la 6800 GT coi nuovi driver è sopra (5/10% circa) alla x800 XT con far cry. Intendo con la versione "vecchia" del gioco, la 1.1. La mia impressione è che nVidia abbia creato dei demo che mettono in risalto la sua architettura, e che sul gioco finale le differenze in prestazioni non saranno così evidenti.
Pape
Originariamente inviato da GMCPape
La mia impressione è che nVidia abbia creato dei demo che mettono in risalto la sua architettura, e che sul gioco finale le differenze in prestazioni non saranno così evidenti.
Pape
E' per quello che mi dicevo perplesso vedendo le Nvidia sotto le Ati anche prima dei nuovi driver e del nuovo supporto. Su un demo da te creato la tua scheda va di meno? Un controsenso.
andreamarra
02-07-2004, 14:31
Originariamente inviato da GMCPape
Sinceramente non mi sembra così disarmante: i driver possono fare miracoli a volte. Cmq dai test che ho fatto personalmente (usando bench'em all per far cry), la 6800 GT coi nuovi driver è sopra (5/10% circa) alla x800 XT con far cry. Intendo con la versione "vecchia" del gioco, la 1.1. La mia impressione è che nVidia abbia creato dei demo che mettono in risalto la sua architettura, e che sul gioco finale le differenze in prestazioni non saranno così evidenti.
Pape
Sui demo è molto probabile, però rimango lo stesso esterrefatto dalla velocità della 6800GT... :eek:
Da alcuni test si vedeva proprio crollare sui piedi anche la Ultra Extreme in confronto alla X800PRO, non credevo che i driver potessero dare una scossa così incredibile :)
Cmq, a tuo modo di vedere (te lo chiedo perchè non mi fido più tanto delle recensioni in rete :( ) oltre alla velocità di render in Far Cry... anche in altri giochi (intendo con filtri al max e risoluzioni elevatissime) la NV40 dove prima andava così così adesso recupera il gap con la R420?
E la qualità di render ti sembra identica?
Ti sarei grato per una spiegazione, purtroppo sono molto indeciso perchè ho ancora dei dubbi sulle nuove schede... dubbi che non vengono dissipati dalle recenzioni in rete :(
:)
Originariamente inviato da GMCPape
Sinceramente non mi sembra così disarmante: i driver possono fare miracoli a volte. Cmq dai test che ho fatto personalmente (usando bench'em all per far cry), la 6800 GT coi nuovi driver è sopra (5/10% circa) alla x800 XT con far cry. Intendo con la versione "vecchia" del gioco, la 1.1. La mia impressione è che nVidia abbia creato dei demo che mettono in risalto la sua architettura, e che sul gioco finale le differenze in prestazioni non saranno così evidenti.
Pape
Miracolo?
Da i risultati direi che alla nVidia ha fatto visita la Madonna in persona :sofico:
Thunder82
02-07-2004, 14:32
Originariamente inviato da GMCPape
Sinceramente non mi sembra così disarmante: i driver possono fare miracoli a volte. Cmq dai test che ho fatto personalmente (usando bench'em all per far cry), la 6800 GT coi nuovi driver è sopra (5/10% circa) alla x800 XT con far cry. Intendo con la versione "vecchia" del gioco, la 1.1. La mia impressione è che nVidia abbia creato dei demo che mettono in risalto la sua architettura, e che sul gioco finale le differenze in prestazioni non saranno così evidenti.
Pape
Spero che non abbia usato il bench di default di benchemall che non ha quasi l'ombra di un ps2.0 :)
E poi se è veramente merito dei driver hanno fatto un MIRACOLO! :eek: in tutte le rece la x800XT in far cry a 1600x1200 disintegrava la 6800, ora la 6800 va quasi il doppio in alcuni casi :confused:
andreamarra
02-07-2004, 14:38
Originariamente inviato da UltimateBou
nessuno mette in dubbio il fatto che sia le geforce che le radeon siano ottime schede, ne che i programmatori nvidia siano degli sprovveduti...
il miracolo però è tale se non c'è ombra di dubbio, qua ci sono delle demo fornite da nvidia e forse riscritte ad hoc in alcune parti che non critico in se e per se, se vanno + forte BENE, critico (sempre se tutto viene testato seriamente) se vengono messe in comparazione per dimostrare una presunta superiorità..
Sui demo presentati nulla da dire: sono fatti apposta per far fare bella figura. Legittimo, cmq.
la cosa che mi lascia interdetto è il fatto che secondo Pape la GT in Far Cry con i nuovi driver va più veloce di una XT di circa il 10/15%...
Ma il test BenchemAll è affidabile? E' vero che non ci sono ps2.0??
Alberto Falchi
02-07-2004, 14:39
Originariamente inviato da andreamarra
Cmq, a tuo modo di vedere (te lo chiedo perchè non mi fido più tanto delle recensioni in rete :( ) oltre alla velocità di render in Far Cry... anche in altri giochi (intendo con filtri al max e risoluzioni elevatissime) la NV40 dove prima andava così così adesso recupera il gap con la R420?
E la qualità di render ti sembra identica?
Mah, sinceramente le differenze fra R420 e NV40 non mi sono mai sembrqte così evidenti, nemmeno coi vecchi driver. Certo, in alcuni casi a 1600x1200 con AA 4X e AF 8X si notavano sensibili cali di prestazione con l'una o laltra... ma io assolutamente non le ritengo informazioni utili: che me ne frega di giocare a quella risoluzione coi filtri? Oltre alle esigenze di test, non vedo significative differenze nella vita reale (i giochi), e per quelli che ci sono ora, en trambe le schede sono eccezionali. Appena usciranno D3, STALKER e HL2 si avranno nuovi termini di paragone, e a quel punto secondo me se ci sono significative differenze fra le architetture, salteranno fuori.
Come qualità dell'ìimmagine, direi che le piccole differenze che si notano zoomando e analizzando con estrema attenzione sono assolutamente invisibili durante le sessioni di gioco.
[/,QUOTE]
andreamarra
02-07-2004, 14:40
Originariamente inviato da Thunder82
Spero che non abbia usato il bench di default di benchemall che non ha quasi l'ombra di un ps2.0 :)
E poi se è veramente merito dei driver hanno fatto un MIRACOLO! :eek: in tutte le rece la x800XT in far cry a 1600x1200 disintegrava la 6800, ora la 6800 va quasi il doppio in alcuni casi :confused:
Questo è quello che non capisco. Ok riuscire ad aumentare del 10-15%... ma si 20% le prestazioni con nuovi driver...
ma qui si vede proprio che da una situazione di catastrofe, la NV40 non solo recupera il divario (che era da raddoppiare...) ma in più raddoppia le prestazioni rispetto ad ati :eek: (praticamente un aumento del 200% :confused: ????? :eek: )
Thunder82
02-07-2004, 14:41
Originariamente inviato da andreamarra
Sui demo presentati nulla da dire: sono fatti apposta per far fare bella figura. Legittimo, cmq.
la cosa che mi lascia interdetto è il fatto che secondo Pape la GT in Far Cry con i nuovi driver va più veloce di una XT di circa il 10/15%...
Ma il test BenchemAll è affidabile? E' vero che non ci sono ps2.0??
il test di default in benchemall è tutto all'aperto nel livello Fort gironzolando in mezzo all'erba. Pensa che è addirittura cpu-limited con la mia 9600xt (con tutto al max faccio ESATTAMENTE gli stessi fps sia a 640x480 che a 800x600 che a 1024x768)...
Alberto Falchi
02-07-2004, 14:44
Originariamente inviato da Thunder82
Spero che non abbia usato il bench di default di benchemall che non ha quasi l'ombra di un ps2.0 :)
E poi se è veramente merito dei driver hanno fatto un MIRACOLO! :eek: in tutte le rece la x800XT in far cry a 1600x1200 disintegrava la 6800, ora la 6800 va quasi il doppio in alcuni casi :confused:
In realtà "disintegrare" mi sembra una parola grossa: non limitarti all'impatto visivo dei grafici. Se guardi i numeri ti rendi conto che le differenze sono nell'ordine del 10% nel migliore dei casi. E per una tale differenza basta un picco dipochi secondi di FPS per alzare la media notevolmente. Secondo voi perché nVidia ha mandato quei demo? Proprio perché altrimenti le differenze sarebbero state minime: studiando invece dei demo ad hoc hanno fatto risaltare il loro potenziale. NOn eslcudo che, registrando altri demo, si possa dimostrare che le X800 Pro spaccano le ossa alle 6800 Ultra ^__^
Per come la vedo io, il benchmark è uyno strumento, e non bisogna dargli troppa importanza, soprattutto se non lo si sa interpretare correttamente. è un po' come le statistiche: se prendi il campione ad hoc, dimostri ciò che vuoi ^_^
Pape
Alberto Falchi
02-07-2004, 14:50
Originariamente inviato da andreamarra
Sui demo presentati nulla da dire: sono fatti apposta per far fare bella figura. Legittimo, cmq.
la cosa che mi lascia interdetto è il fatto che secondo Pape la GT in Far Cry con i nuovi driver va più veloce di una XT di circa il 10/15%...
Ma il test BenchemAll è affidabile? E' vero che non ci sono ps2.0??
Non fa un pesante uso dei PS 2.0, ma stressa moltissimo le schede. L'ho utilizzato principalmente perché mi ha interessato molto vedere come le GF, con l'overclock, guadagnavano qualche punto, al contrario delle X800, i ciu valori erano praticamente identici. Una considerazione che può dire tutto e niente, ma mentre negli altri test sia ATI sia GF salivano in maniera simile, in questo, molto CPU Limited (cmq un P4 3.2@3.440) la geforce sembrava guadagnare maggiormente dall'aumento di frequenze.
Pape
Thunder82
02-07-2004, 14:53
Originariamente inviato da GMCPape
In realtà "disintegrare" mi sembra una parola grossa: non limitarti all'impatto visivo dei grafici. Se guardi i numeri ti rendi conto che le differenze sono nell'ordine del 10% nel migliore dei casi. E per una tale differenza basta un picco dipochi secondi di FPS per alzare la media notevolmente. Secondo voi perché nVidia ha mandato quei demo? Proprio perché altrimenti le differenze sarebbero state minime: studiando invece dei demo ad hoc hanno fatto risaltare il loro potenziale. NOn eslcudo che, registrando altri demo, si possa dimostrare che le X800 Pro spaccano le ossa alle 6800 Ultra ^__^
Per come la vedo io, il benchmark è uyno strumento, e non bisogna dargli troppa importanza, soprattutto se non lo si sa interpretare correttamente. è un po' come le statistiche: se prendi il campione ad hoc, dimostri ciò che vuoi ^_^
Pape
resta il fatto che il guadagno è impressionante... :confused:
Prima era così
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2119.png
Ora è così
http://images.anandtech.com/graphs/farcry%20sm2%20benches_07010420756/2820.png
(il demo dovrebbe essere lo stesso leggendo: mp_airstrip
This is our default benchmark here at AnandTech. We've been using this demo to benchmark with FarCry ever since we first included it in our benchmark suite.)
Cioè la 6800U guadagna 20fps :confused:
Thunder82
02-07-2004, 14:55
Originariamente inviato da GMCPape
Non fa un pesante uso dei PS 2.0, ma stressa moltissimo le schede. L'ho utilizzato principalmente perché mi ha interessato molto vedere come le GF, con l'overclock, guadagnavano qualche punto, al contrario delle X800, i ciu valori erano praticamente identici. Una considerazione che può dire tutto e niente, ma mentre negli altri test sia ATI sia GF salivano in maniera simile, in questo, molto CPU Limited (cmq un P4 3.2@3.440) la geforce sembrava guadagnare maggiormente dall'aumento di frequenze.
Pape
Se ti interessa qui abbiamo fatto un benchmark molto più pesante se lo vuoi provare
http://forum.hwupgrade.it/showthread.php?s=&threadid=704568
:)
Alberto Falchi
02-07-2004, 15:08
Originariamente inviato da Thunder82
resta il fatto che il guadagno è impressionante... :confused:
Cioè la 6800U guadagna 20fps :confused:
In quella situaizone: come visibile da altri test (digit-Life, xbit etc), il guadagno con altri demo non è così netto. Secondo me dipende molto dalle situazioni di gioco. Forse utilizzando un demo di un'oretta, comprendente qualche livello giocato fino in fondo, si potrebbero avere risultati veramente comparabili ^__^
Pape
Alberto Falchi
02-07-2004, 15:09
Originariamente inviato da Thunder82
Se ti interessa qui abbiamo fatto un benchmark molto più pesante se lo vuoi provare
http://forum.hwupgrade.it/showthread.php?s=&threadid=704568
:)
THx, lo controllo subito ^__^
Pape
PSYCOMANTIS
02-07-2004, 15:09
Anche Firingsquad http://www.firingsquad.com/hardware/far_cry_sm30/ ha fatto i test con la patch e i risultati sono molto diversi, la x800xt vince quasi sempre. Questi sono i dati rilevati dalle due recensioni e come vedete sono molto diversi.
Secondo Firingsquad vince Ati secondo Anandtech vince Nvidia, l'unica differenza tra le due rece e' che Anandtech ha usato le direct x 9.0c mentre Firingsquad le 9.0b.
FS = Firingsquad, AT = Anandtech
Training 1600x1200, 4xAA, 4xAA+8xAF
FS 6800U, 75.3, 52.4, 42.2
FS XT PE, 77.5, 55.5, 50.1
AT 6800U, 73.6, -NA-, 56.0
AT XT PE, 73.7, -NA-, 48.9
Research 1600x1200, 4xAA, 4xAA+8xAF
FS 6800U, 77.6, 57.3, 44.8
FS XT PE, 72.1, 55.0, 51.3
AT 6800U, 77.6, -NA-, 59.3
AT XT PE, 69.6, -NA-, 49.3
Regulator 1600x1200, 4xAA, 4xAA+8xAF
FS 6800U, 73.6, 47.3, 38.5
FS XT PE, 67.3, 44.3, 40.4
AT 6800U, 73.1, -NA-, 54.6
AT XT PE, 65.0, -NA-, 38.9
Volcano 1600x1200, 4xAA, 4xAA+8xAF
FS 6800U, 73.6, 47.3, 38.5
FS XT PE, 67.3, 44.3, 40.4
AT 6800U, 76.9, -NA-, 61.8
AT XT PE, 67.1, -NA-, 45.4
Alberto Falchi
02-07-2004, 15:13
Originariamente inviato da PSYCOMANTIS
Secondo Firingsquad vince Ati secondo Anandtech vince Nvidia, l'unica differenza tra le due rece e' che Anandtech ha usato le direct x 9.0c mentre Firingsquad le 9.0b.
Mi sembra molto strano: lo SM3 richiede le 9.0c, quindi o le prestazioni "sballate" si spiegano con la vecchie versione delle DX, o semplicemente hanno usato le 9.0c e sul sito hanno erroneamente indicato le precedenti
Pape
Thunder82
02-07-2004, 15:14
Originariamente inviato da PSYCOMANTIS
Volcano 1600x1200, 4xAA, 4xAA+8xAF
FS 6800U, 73.6, 47.3, 38.5
FS XT PE, 67.3, 44.3, 40.4
AT 6800U, 76.9, -NA-, 61.8
AT XT PE, 67.1, -NA-, 45.4
Sicuro che abbiano la stessa scheda e lo stesso demo? :confused: perchè la 6800U di anandtech va il DOPPIO di quella di firingsquad coi filtri :D
PSYCOMANTIS
02-07-2004, 15:16
http://www.firingsquad.com/hardware/far_cry_sm30/images/r1600.gif
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2790.png
I dati della x800 tornano sono quelli della 6800 che sono troppo bassi, se fosse vero che hanno fatto i test senza directx9.0c andrebbero fucilati all'istante.
Originariamente inviato da PSYCOMANTIS
I dati della x800 tornano sono quelli della 6800 che sono troppo bassi, se fosse vero che hanno fatto i test senza directx9.0c andrebbero fucilati all'istante.
Nella prima pagina si legge così:
"So what do you need if you’re a GeForce 6800 user and you want to get SM 3.0 up and running in Far Cry? First, you’ll need the 1.2 patch. We’ve been told that Ubisoft will be releasing it on July 5th, next Monday. Next, you’ll need a copy of DX9.0c. Currently, the only way to obtain DX9.0c is to download Microsoft’s Service Pack 2 release candidate. Finally, you’ll need an NVIDIA display driver with SM 3.0 support. NVIDIA provided us with a copy of ForceWare 61.45 for our testing.
With all of this in hand, plus four new demos that come with the new 1.2 patch, we were eager to test out the improvements, but first let’s get started with our own custom demo, which is based on the map mp_monkeybay (which happens to have its fair share of grass in it)."
Probabile che abbiano fatto un copia e incolla del pc di test e sia siano sbagliati.
andreamarra
02-07-2004, 15:28
Originariamente inviato da PSYCOMANTIS
Anche Firingsquad http://www.firingsquad.com/hardware/far_cry_sm30/ ha fatto i test con la patch e i risultati sono molto diversi, la x800xt vince quasi sempre. Questi sono i dati rilevati dalle due recensioni e come vedete sono molto diversi.
Secondo Firingsquad vince Ati secondo Anandtech vince Nvidia, l'unica differenza tra le due rece e' che Anandtech ha usato le direct x 9.0c mentre Firingsquad le 9.0b.
FS = Firingsquad, AT = Anandtech
Training 1600x1200, 4xAA, 4xAA+8xAF
FS 6800U, 75.3, 52.4, 42.2
FS XT PE, 77.5, 55.5, 50.1
AT 6800U, 73.6, -NA-, 56.0
AT XT PE, 73.7, -NA-, 48.9
Research 1600x1200, 4xAA, 4xAA+8xAF
FS 6800U, 77.6, 57.3, 44.8
FS XT PE, 72.1, 55.0, 51.3
AT 6800U, 77.6, -NA-, 59.3
AT XT PE, 69.6, -NA-, 49.3
Regulator 1600x1200, 4xAA, 4xAA+8xAF
FS 6800U, 73.6, 47.3, 38.5
FS XT PE, 67.3, 44.3, 40.4
AT 6800U, 73.1, -NA-, 54.6
AT XT PE, 65.0, -NA-, 38.9
Volcano 1600x1200, 4xAA, 4xAA+8xAF
FS 6800U, 73.6, 47.3, 38.5
FS XT PE, 67.3, 44.3, 40.4
AT 6800U, 76.9, -NA-, 61.8
AT XT PE, 67.1, -NA-, 45.4
Che casino... :(
Non ci capisco più nulla :cry:
In ogni caso, come dice giustamente Pape, le directX9.0C dovrebbero essere obbligatorie per lo standard 3.0... :confused:
PSYCOMANTIS
02-07-2004, 15:29
Originariamente inviato da DjLode
Nella prima pagina si legge così:
"So what do you need if you’re a GeForce 6800 user and you want to get SM 3.0 up and running in Far Cry? First, you’ll need the 1.2 patch. We’ve been told that Ubisoft will be releasing it on July 5th, next Monday. Next, you’ll need a copy of DX9.0c. Currently, the only way to obtain DX9.0c is to download Microsoft’s Service Pack 2 release candidate. Finally, you’ll need an NVIDIA display driver with SM 3.0 support. NVIDIA provided us with a copy of ForceWare 61.45 for our testing.
With all of this in hand, plus four new demos that come with the new 1.2 patch, we were eager to test out the improvements, but first let’s get started with our own custom demo, which is based on the map mp_monkeybay (which happens to have its fair share of grass in it)."
Probabile che abbiano fatto un copia e incolla del pc di test e sia siano sbagliati.
Dicono che l'unico modo per avere le direct x 9.0c e' scaricare il service pack 2.0 e poi hanno segnato sp1 nel test setup.....si sono sbagliati due volte?
Firingsquad:
MD Athlon 64 3800+
ASUS A8V Deluxe
1GB Corsair XMS3200 DDR SDRAM
ATI RADEON X800 XT Platinum Edition
ATI RAEON X800 PRO
Driver version CATALYST 4.6
NVIDIA GeForce 6800 Ultra
NVIDIA GeForce 6800 GT
Driver version Forceware 61.45
250GB Maxtor Hard Drive Maxline III SATA Hard Drive w/16MB Cache
Windows XP Professional SP1
DirectX 9.0b
Anandtech:
Processor(s): AMD Athlon 64 3400+
RAM: OCZ PC3200 (2:2:3:6)
Hard Drive(s): Seagate Barracuda 7200.7
Video AGP & IDE Bus Master Drivers:VIA Hyperion 4in1 4.51
Video Card(s): NVIDIA GeForce 6800 Ultra Extreme NVIDIA GeForce 6800 Ultra NVIDIA GeForce 6800 GT NVIDIA GeForce 6800 ATI Radeon X800 XT Platinum Edition ATI Radeon X800 XT ATI Radeon X800 Pro
Video Drivers:NVIDIA 61.45 SM3 Beta Graphics Drivers ATI Catalyst 4.6
Come ho detto se quel pc è quello standard hanno fatto copia e incolla e possono essersi sbagliati.
PSYCOMANTIS
02-07-2004, 15:31
Secondo me quelli di firingsquad hanno fatto dei test che li faceva meglio mia nonna......
Thunder82
02-07-2004, 15:31
Originariamente inviato da PSYCOMANTIS
Dicono che l'unico modo per avere le direct x 9.0c e' scaricare il service pack 2.0 e poi hanno segnato sp1 nel test setup.....si sono sbagliati due volte?
Probabilmente hanno fatto copia/incolla della config da una review precedente...
Originariamente inviato da PSYCOMANTIS
Secondo me quelli di firingsquad hanno fatto dei test che li faceva meglio mia nonna......
:rolleyes:
andreamarra
02-07-2004, 15:34
Li si può contattare per sapere se hanno sbagliato o meno :) ???
PSYCOMANTIS
02-07-2004, 15:42
Firingsquad
http://www.firingsquad.com/hardware/far_cry_sm30/images/r1600.gif
Anandtech
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2790.png
Techreport
http://techreport.com/etc/2004q3/farcry/regulator-4x8x.gif
Techreport :
The new Far Cry patch does indeed seem to be a decent showcase for Shader Model 3.0's potential. The GeForce 6800 cards gain up to about 10% in average frame rates when using the SM3.0 code path. No, the differences aren't going to convert the masses into NVIDIA fanboys overnight, but they do show NVIDIA wasn't kidding about Shader Model 3.0 offering some advantages
Quindi 38 fps per TechReport, 38 circa per FiringSquad e 62fps per Anandtech? Bhè non c'è troppissima differenza :sofico:
PSYCOMANTIS
02-07-2004, 15:44
Dunque la verita' sta' nel mezzo?
Originariamente inviato da PSYCOMANTIS
Dunque la verita' sta' nel mezzo?
Sinceramente non so cosa pensare. Anandtech è sempre stato un sito serio e francamente se avesse barato in quella maniera sarebbe un bello smacco.
Giuro che non so cosa pensare....
PSYCOMANTIS
02-07-2004, 15:49
Mah, a questo punto credo che abbia cannalto Anandtech....c'e' troppo divario.
Chiunque abbia sbagliato non ci fa una bella figura...
andreamarra
02-07-2004, 15:53
Originariamente inviato da PSYCOMANTIS
Mah, a questo punto credo che abbia cannalto Anandtech....c'e' troppo divario.
Quello di techreport mi sembra quello più "corretto".
Effettivamente si vede che in certi contesti va meglio la NV40, poi alzando filtri e risoluzioni la R420 riprende leggermente la NV40.
In ogni caso, vige il mistero più fitto :eek:
Anche perchè: se con i ps3.0 hanno dovuto usare fp32, chi ci dice che a ps2.0 hanno usato fp16, o fp32, o un mix tra fp16 e fp32?
SArebbe importante per vedere i reali guadagni tra ps2.0 e ps3.0
PSYCOMANTIS
02-07-2004, 16:01
Questo e' il test Regulator eseguito da xbitlabs (purtroppo senza filtri)
http://www.xbitlabs.com/images/video/farcry30/fc_16x12_pure_regulator.gif
Originariamente inviato da PSYCOMANTIS
Questo e' il test Regulator eseguito da xbitlabs (purtroppo senza filtri)
http://www.xbitlabs.com/images/video/farcry30/fc_16x12_pure_regulator.gif
Dubito cmq che la Ultra faccia 75fps senza filtri e 62 con AA 4x e Aniso 8x Quindi i test con i filtri dovrebbero essere più bassi di quelli di Anand
PSYCOMANTIS
02-07-2004, 16:27
pcperspective:
Test setup:
CPU Intel P4E @ 3.4 GHz
Motherboards Intel 875DP Motherboard
Power Supply Antec 460 watt
Memory 2x512MB corsair PC4000 DDR
Hard Drive 40GB 7200RPM Western Digital EIDE
Sound Card Creative Labs Live!
Video Card NVIDIA GeForce 6800 Ultra NVIDIA GeForce 6800 GT ATI X800XT
Video Drivers NVIDIA 61.45 (w/ SM3.0 support) ATI Catalyst 4.6
DirectX Version DX 9.0c
Operating System Windows XP w/ Service Pack 2
http://www.pcperspective.com/images/reviews/55/fort_x800xt_1600_48_bar.gif
http://www.pcperspective.com/images/reviews/55/dam_x800xt_1600_48_bar.gif
http://www.pcperspective.com/images/reviews/55/regulator_1600_00_bar.gif
Ok, a questo punto chi ci capisce qualcosa vince un :tapiro:
PSYCOMANTIS
02-07-2004, 16:32
I risultati di Anandtech e di pcperspective sembrano molto simili.
http://www.pcperspective.com/images/reviews/55/regulator_1600_00_bar.gif
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2790.png
PcPerspective non lo conosco, è affidabile o è saltato fuori dal nulla?
Giuro, dico sul serio :)
PSYCOMANTIS
02-07-2004, 16:50
Originariamente inviato da DjLode
PcPerspective non lo conosco, è affidabile o è saltato fuori dal nulla?
Giuro, dico sul serio :)
Guru 3d ha fatto un test veloce
Far Cry SM3 Volcano, Training, Regulator, Research
SM 2 44 45 43 40
SM 3 53 48 47 51
"Hey as you can see, that's extra performance people. We measured an up to 25% (not overall) performance increase on the overall framerate which makes Shader Model 3 somewhat more interesting then it did a few weeks ago. The performance increase is level dependant though and in some level just a few percent. The NVIDIA 6800 cards obviously have room for small performance gains making the 6800 series even more interesting."
PSYCOMANTIS
02-07-2004, 16:51
Nvnews:
http://www.nvnews.net/images/news/200407/farcry_sm30.png
andreamarra
02-07-2004, 17:14
Originariamente inviato da PSYCOMANTIS
Nvnews:
http://www.nvnews.net/images/news/200407/farcry_sm30.png
Minchiazza :eek:
Ma per fare il raffronto... quando viene utilizzato lo shader 2.0, si usa il fp32 o fp16? O una versione mix?
Perchè se fosse usata la versione a fp32 sarebbe veramente mostruoso l'incremento... :eek:
Cmq sia, le 2 schede stanno allo stesso livello ora.
Come ha già fatto notare qualcuno, la scelta tra le due dipenderà dai giochi a cui uno è intenzionato a giocare e dal prezzo.
peace
Qua le rece che testiomoniano il boost aumentano :)
Aspettiamo ancora un pò cmq ;)
Ragazzi non ha senso confrontare risultati presi da recensioni diverse.
Potrebbe cambiare il demo, le modalità e magari anche le impostazioni.
andreamarra
02-07-2004, 19:02
Originariamente inviato da pandyno
Ragazzi non ha senso confrontare risultati presi da recensioni diverse.
Potrebbe cambiare il demo, le modalità e magari anche le impostazioni.
Sicuramente.
Però effettivamente se tutti i giochi di prossima uscita in ps2.0 avranno una patch apposta per avere i ps3.0...
un bel guadagno c'è, a quanto sembra.
la cosa interessante è che lo standard 3.0 avrà maggiori benefici dall'utilizzo del Dynamic Branching, che ora come ora (stando ai programmatori) è decisamente evitato poichè troppo oneroso.
X-ICEMAN
02-07-2004, 19:08
Tanto sbattersi per avere il supporto 3.0 e poi non ci sono aumenti qualitativi, e limitati aumenti di velocità contro una scheda che implementa i p.s 2.0 in maniera stupenda ?
Bha Nvidia fa come al solito tanto rumore per nulla... Ati è nuovamente più concreta nell'utilizzo pratico nei giochi attuali
zerothehero
02-07-2004, 19:26
Originariamente inviato da andreamarra
Infatti.
Ora, perchè i primi test e i test fino a qualche giorno fa erano così favorevoli alla R420?
Si parlava insistentemente di flop nvidia in questo gioco (per errore dei programmatori).
Adesso è esaltazione nvidia e depressione ati.
Forse l'unica cosa che si può dire che ENTRAMBE le architetture questa volta sono ottime, ma dipende che strada preferiranno gli sviluppatori di giochi...se priviligeranno i pixel/vertex shader 3.0 nvidia verrà avvantaggiata altrimenti avverrà il contrario..
Originariamente inviato da abitrulez
io credo proprio che alla fine prendero una bella x800 di abit allora ho proprio deciso credo ! d'altro canto se abit non produce piu le schede video con dentro i chipset nvidia allora vuol dire che non sono piu tanto valide dato che abit ha sempre cercato di produrre le cose migliori sul mercato se nvdia facesse delle cose buone abit sicuramente avrebbe continuato a produrle.
a proposito qualcuno mi spiega che cosa e' il paralax mapping e il 3dc ?
grazie mille ciao a tutti
ah ragazzi non sapete se ce un sito di abit italiano ?
E' il ragionamento più stupido che la mente umana potesse concepire....... OMG :rolleyes:
Non ho letto altrodi questa discussione sono arrivato qui e mi fermo all'istante :D
Ciaoz
Ma ancora non ce l'ha nessuno una 6800 per provare?
Ok, forse ci siamo :)
http://www.beyond3d.com/forum/viewtopic.php?t=13723&start=60
Viene detto che :
"The reason our overall results vary so considerably is because we're using AA & AF on both NVIDIA cards, whereas Anand is using just AF on his NV boards. If you look at both of our ATI numbers with 4xAA/8xAF you'll see they results are pretty similar, with mine a little higher (most likely because my CPU is faster).
I'm sure he'll update his graphs accordingly. Right now the ATI boards are doing more work than the NVIDIA cards (4xAA & 8xAF versus just 8xAF on the NV cards) which is why the consistently come out ahead by such a large margin"
In pratica si hanno quei risultati perchè le 6800 non calcolano l'AA ma solo l'anisotropico per un errore di configurazione.
Thunder82
02-07-2004, 22:08
Originariamente inviato da DjLode
Ok, forse ci siamo :)
http://www.beyond3d.com/forum/viewtopic.php?t=13723&start=60
Viene detto che :
"The reason our overall results vary so considerably is because we're using AA & AF on both NVIDIA cards, whereas Anand is using just AF on his NV boards. If you look at both of our ATI numbers with 4xAA/8xAF you'll see they results are pretty similar, with mine a little higher (most likely because my CPU is faster).
I'm sure he'll update his graphs accordingly. Right now the ATI boards are doing more work than the NVIDIA cards (4xAA & 8xAF versus just 8xAF on the NV cards) which is why the consistently come out ahead by such a large margin"
In pratica si hanno quei risultati perchè le 6800 non calcolano l'AA ma solo l'anisotropico per un errore di configurazione.
Ah ecco! :rotfl:
I fantomatici incrementi prestazionali dei ps3.0 è perchè manca l'AA :rotfl:
Ma non potevano accorgersene quelli di anandtech &company? :rolleyes: fanno i bench col monitor spento? :rolleyes:
Originariamente inviato da Thunder82
Ah ecco! :rotfl:
I fantomatici incrementi prestazionali dei ps3.0 è perchè manca l'AA :rotfl:
Ma non potevano accorgersene quelli di anandtech &company? :rolleyes: fanno i bench col monitor spento? :rolleyes:
:doh: :rotfl: :rotfl:
Originariamente inviato da DjLode
Ok, forse ci siamo :)
http://www.beyond3d.com/forum/viewtopic.php?t=13723&start=60
Viene detto che :
"The reason our overall results vary so considerably is because we're using AA & AF on both NVIDIA cards, whereas Anand is using just AF on his NV boards. If you look at both of our ATI numbers with 4xAA/8xAF you'll see they results are pretty similar, with mine a little higher (most likely because my CPU is faster).
I'm sure he'll update his graphs accordingly. Right now the ATI boards are doing more work than the NVIDIA cards (4xAA & 8xAF versus just 8xAF on the NV cards) which is why the consistently come out ahead by such a large margin"
In pratica si hanno quei risultati perchè le 6800 non calcolano l'AA ma solo l'anisotropico per un errore di configurazione.
Originariamente inviato da pandyno
Ragazzi non ha senso confrontare risultati presi da recensioni diverse.
Potrebbe cambiare il demo, le modalità e magari anche le impostazioni.
C.V.D.
;)
PSYCOMANTIS
03-07-2004, 00:31
Techreport parla di incrementi del 10% saranno attendibili questi dati?
"The new Far Cry patch does indeed seem to be a decent showcase for Shader Model 3.0's potential. The GeForce 6800 cards gain up to about 10% in average frame rates when using the SM3.0 code path. No, the differences aren't going to convert the masses into NVIDIA fanboys overnight, but they do show NVIDIA wasn't kidding about Shader Model 3.0 offering some advantages."
Comunque appena esce la patch li faccio io un paio di bench con la mia 6800 ultra @475/1250 :asd:
C'è anche questo test:
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03OTYmdXJsX3BhZ2U9Mw==
Graphics Cards
NVIDIA GeForce 6800 Ultra, NV45, 256MB, PEG16X, 450/1100
ATI Radeon X800 XT, R423, 256MB, PEG16X, 520/1040
System Basics
ASUS P5AD2 Premium Mainboard, LGA775, Intel i925X, PEG16X, DDR-II
Micron DDR-II 533MHz, 2 x 512MB
Intel Pentium 4 3.4GHz Extreme Edition, LGA775
Western Digital Raptor 36GB SATA
Software
Windows XP Professional w/ SP1
NVIDIA Detonator 61.45
ATI CATALYST 4.6
DirectX 9.0c from Windows SP2 build 2126, DX9 build 4.09.0000.0904
Far Cry
http://img.hexus.net/v2/features/farcry12/images/composite.png
http://img.hexus.net/v2/features/farcry12/images/6800.png
http://img.hexus.net/v2/features/farcry12/images/x800.png
4 Fps di aumento sono circa il 10%, la cosa è veritiera, quegli incrementi si possono ottenere.
Il fatto che mi lascia perplesso e vedere ben 8 fps in meno sulla XT, segno che qualcosa hanno cambiato, spero non volendo cambiarlo.
^TiGeRShArK^
03-07-2004, 09:58
Originariamente inviato da Lestat.me
allora sei d'accordo di rifare tutti i test con l'af per le ATi... e scusa siamo coerenti dai!!! e cmq anche a nfsu ci sono differenze nella gamma usata nei pixel shader... annulliamo pure quei test? dai la gamma non fa le prestazioni...
perchè tu noti differenza alcuna tra il risultato visivo dell'implementazione di ati con i "trukki" (come li kiami tu) e senza????
invece qui si notano kiaramente differenze dell'output nella rappresentazione delle fonti di luce.....
ma certo, giustamente, se una cosa la fa nvidia è una santa, anke se produce risultati nettamente differenti, mentre se la fa ati è una poco di buono ke truffa gli utenti nonostante il risultato finale sia perfettamente identico e abbia regalato ai suoi utenti FPS in più a costo zero:rolleyes:
e il bello ke parli di coerenza ... anke se in effetti si dovrebbe parlare di prosciutti sani sugli occhi (e non fette) o ruote di parmigiano reggiano se preferisci :asd:
Dumah Brazorf
03-07-2004, 11:13
Originariamente inviato da DjLode
http://www.beyond3d.com/forum/viewtopic.php?t=13723&start=60
In pratica si hanno quei risultati perchè le 6800 non calcolano l'AA ma solo l'anisotropico per un errore di configurazione.
Al ROGO!!! :ncomment: http://www.vocinelweb.it/faccine/mad/pag2/38.gif
Ma io di questi test mi fido sempre meno.....ora neanche si accorgono se è attivo AA 4x oppure no......mah !:doh:
Voglio vedere con i miei occhi ! :O
DioBrando
03-07-2004, 12:34
Originariamente inviato da DjLode
PcPerspective non lo conosco, è affidabile o è saltato fuori dal nulla?
Giuro, dico sul serio :)
io conosco il forum ed è molto serio perchè per alcune mobo per es ci sn rappresentanti ufficiali provenienti direttamente dalle case produttrici.
Pc perspective ex amdmb per intenderci ;)
PSYCOMANTIS
03-07-2004, 13:14
Anandtech ha corretto i benchmark, questa volta sono giusti.
L'incremento di prestazioni rimane (anche se non clamoroso come prima)
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2851.png
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2855.png
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2853.png
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2845.png
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2847.png
ma alla fine dei conti, vediamo se ho capito bene... allora.. far cry diventa il primo gioco che, con una pitch (con parto lungo e doloroso), sfrutta questi fantomatici P.S. 3 ed le prestazioni tra l'nv40 e l'x800 sono diventate pressochè allineate e la qualità visiva idem??
Ma alla fine questi effetti del 3.0 sono così straordinari?? :confused:
Imho è logico che Nvidia vista la batosta che ha preso nella precedente generazione, si appigli a qualsiasi cosa pur di riprendersi il trono nel settore grafico :rolleyes:
Nino Grasso
03-07-2004, 16:09
sempre alla stessa maniera... fa na cosa nvidia, o si parla di cheat, o di accordi sleali o di tangenti quasi... la fa ATi... grande tecnologia... ma va per favore!
Originariamente inviato da Lestat.me
sempre alla stessa maniera... fa na cosa nvidia, o si parla di cheat, o di accordi sleali o di tangenti quasi... la fa ATi... grande tecnologia... ma va per favore!
EBBASTA CON STI DISCORSI DA BAR BASTAAAAAAAAAAAAAAAAAAAA
OMMAMMAMIA SE FOSSI MODERATORE LO CALMEREI IO STO FORUM VIDEO :( :mad: :mad:
Nino Grasso
03-07-2004, 16:14
Originariamente inviato da ^TiGeRShArK^
perchè tu noti differenza alcuna tra il risultato visivo dell'implementazione di ati con i "trukki" (come li kiami tu) e senza????
invece qui si notano kiaramente differenze dell'output nella rappresentazione delle fonti di luce.....
ma certo, giustamente, se una cosa la fa nvidia è una santa, anke se produce risultati nettamente differenti, mentre se la fa ati è una poco di buono ke truffa gli utenti nonostante il risultato finale sia perfettamente identico e abbia regalato ai suoi utenti FPS in più a costo zero:rolleyes:
e il bello ke parli di coerenza ... anke se in effetti si dovrebbe parlare di prosciutti sani sugli occhi (e non fette) o ruote di parmigiano reggiano se preferisci :asd:
huhuaUHahuahuhau si io sinceramente se un gioco ha la stessa fonte di luce a luminosità minore non ci posso giocare... ma dai... non è proprio uguale poi a dire "la concorrenza è una merda perché usa i trucchettini dei babbei, noi siamo + forti e non li usiamo" e poi li usano e si discolpano dicendo "no scusate ci siamo dimenticati" ma dai... mi ricordani i tempi delle elementari quando non facevo i compiti... e per favore!!!
poi c'è gente che parla di NV40 distrutta, di mazzate e di cose varie... ma ci vogliamo ridimensionare? sono due schedone... sputarci sopra significa non voler vedere la realtà come ci si para davanti... poi se per voi andare a 55 o a 58 significa grandissima differenza di prestazioni scusatemi pure... sarò cecato io..
Nino Grasso
03-07-2004, 16:18
Originariamente inviato da REPSOL
EBBASTA CON STI DISCORSI DA BAR BASTAAAAAAAAAAAAAAAAAAAA
OMMAMMAMIA SE FOSSI MODERATORE LO CALMEREI IO STO FORUM VIDEO :( :mad: :mad:
huauhahuauhaha sembra paradossale ma ti do ragione... ma leggendo centinaia di post con su scritto "scandalo" "solita nvidia" "nvidia merda" "nvidia lol" "nvidia sempre uguale" sinceramente mi iniziano a girare le palle... :D :D e poi automaticamente inizio a difenderla :D lo stesso se dicessero ATi, Matrox, PowerVR e addirittura Williams e McLaren :D
Originariamente inviato da Lestat.me
sempre alla stessa maniera... fa na cosa nvidia, o si parla di cheat, o di accordi sleali o di tangenti quasi... la fa ATi... grande tecnologia... ma va per favore!
No no...non voglio difendere ATI, ho solo detto cosa avrei fatto IO se fossi stato il Sig.NVIDIA ;)
E' solo questione di marketing, anche ati avrebbe fatto lo stesso, non lo metto in dubbio :p
Nino Grasso
03-07-2004, 16:23
nn parlavo per te np;)
Originariamente inviato da Lestat.me
huauhahuauhaha sembra paradossale ma ti do ragione... ma leggendo centinaia di post con su scritto "scandalo" "solita nvidia" "nvidia merda" "nvidia lol" "nvidia sempre uguale" sinceramente mi iniziano a girare le palle... :D :D e poi automaticamente inizio a difenderla :D lo stesso se dicessero ATi, Matrox, PowerVR e addirittura Williams e McLaren :D
ma se non sbaglio, il titolo del thread non dice mazzate su ati??
cmq ancora non ho capito bene cosa fanno questi PS3 in far cry..
Nino Grasso
03-07-2004, 16:31
eh infatti... alla fine i sm3.0 non aggiungono molte novità a livello qualitativo, semmai sono i VS3.0 che presentano qualche novità come impatto grafico... però grazie ad alcune accortezze è possibile renderizzare effetti complessi che richiederebbero + passaggi di rendering in un solo passaggio, aumentando sensibilimente quindi la velocità di rendering di alcune scene... qua in questi test viene dimostrato che i miglioramenti ci sono e si attestano dal 10% al 20% in alcuni casi, ma sono test che evidenziano particolarmente le zone in cui appunto gli sm3.0 danno il maggior impatto prestazionale quindi è meglio aspettare test + veritieri per l'ultima parola... :D
Mostro!!
03-07-2004, 16:41
9 pagine di bench fallati, gente che fa recensioni e non si accorge che non viene applicato l' AA ecc....
meglio aspettare qualcosa di decente per esprimere qualche idea :(
Tutto si è ristabilito. Nvidia più veloce senza filtri, Ati con. Con la sorpresa che in taluni casi la Ultra Extreme le becca dalla XT PE.
Nino Grasso
03-07-2004, 21:15
Originariamente inviato da MaBru
Tutto si è ristabilito. Nvidia più veloce senza filtri, Ati con. Con la sorpresa che in taluni casi la Ultra Extreme le becca dalla XT PE.
:bimbo: :nonsifa:
Mazzate concluse, si può chiudere ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.