PDA

View Full Version : Nvidias new Drivers *cheat* in 3Dmark03/Nvidia VS Futuremark


pandyno
14-02-2003, 09:41
http://www.hardforum.com/showthread.php?s=1b6e1f15562e74bba68e91639c47fd02&threadid=569104

http://discuss.futuremark.com/forum/showflat.pl?Cat=&Board=mo3dmark03&Number=1837817&page=4&view=collapsed&sb=5&o=0&fpart=1

Looks like the GFFX is winning becuase they are not rendering any explosions, and missing other effects. Guess thats how they got so fast so quick, yet made no change to the non scoring benchmarks...

Dont you find it a little odd that you somehow didn't notice that? or make any mention of it? I find it pretty odd.

Guess if ots not an Ati hack pointed out to you directly by Nvidia its not worth mentioning...


http://www.rosone.max.pl/shot0000.jpg

Betha23
14-02-2003, 09:56
"the info we have is..
- no one have a geforceFx ultra to test if the problem happen in
the geforcefx
-the problem happens in some users with 42.86 drivers and in some other not.
-missing graphics and display errors happens too with some
radeon9700pro users ,look at my first post
-the Nvidia drivers 42.67 used in the HArdocp test are not available for
download ,people are testing 42.86 as reference..
- as far as i know the only game-test where the error happen is in game1
- the diference between the the old 42.63 and 42.67 drivers in the
geforcefx is near none...173.9fps vs 175.6 fps!!! 2 frames diference
- the missing explosions in the G1 test is too obvious ,too big for
someone try that technique just to earn 1-2 FPS
-the tread is dead now ,noone talks about this anymore "

Per i non anglofili dice che

1- Nessuno ha uan GeforceFx per vedere se il problema appare anche nelle GefroceFx.
2- Il problema appare in alcuni utenti con i 42.86 e in altri no.
3- Il problema appare anche ad alcuni utenti con le 9700.
4- I Driver pertestare el GFx non sono rintracciabili e quindi tutti stano usando i 42.86.
5- Il solo test dove appare l'errore è il Test1
6- LA differenza di FPS tra i 2 driver nel test1 è ridicola, la mancanza di esplosiano avrebbe dato un boost molto più grande!
7- Il thread dove se ne parlava è morto e nessuno ne parla più! ;)

E cmq se vi interessa Tom's ha detto la sua: http://www.tomshardware.com/column/20030213/index.html

Simon82
14-02-2003, 10:33
Dico solo una cosa.. se e' vero.. SONO PROPRIO ALLA FRUTTA!!!! CHE PAGLIACCI! :D

Milion
14-02-2003, 11:12
Direttamente da tom's hardware

"Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation. "

Sono le parole finali.
Da vergognarsi.

Milio

Betha23
14-02-2003, 11:20
L'opinionedi Extremtech: http://www.extremetech.com/article2/0,3973,888206,00.asp

Mi pare che dicano la stessa cosa!

Milion
14-02-2003, 11:26
Poi lo vado a leggere, ma se dicono la stessa cosa per me possono vergognarsi pure loro.

Ma come?...prima nvidia paladina degli standard directx e ogl "aperti", tutti contro 3dfx e le sue glide "ottimizzate", tonnellate di balle...e ora pretendono che addirittura i benchmark usino ottimizzazione proprietarie.
Ma non potevano fare un motore che gestisse gli standard?

Io ero d'accordo riguardo gli standard...ora quegli stessi ragionamenti che fine hanno fatto?
E con l'avallo di quei siti che all'epoca gridavano al miracolo sempre nell'ottica della programmazione secondo standard?
Ripeto...c'è veramente da vergognarsi :)

Milio

Betha23
14-02-2003, 11:26
Originally posted by "Milion"

Direttamente da tom's hardware

"Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation. "

Sono le parole finali.
Da vergognarsi.

Milio

Invece di partire prevenuti perchè non leggete quello che scive tom's! Io sinceramente non riesco a non essere daccordo con loro! ;)

Simon82
14-02-2003, 11:28
Mah... idealmente stanno esagerando. Solo il fatto di pretendere che un BENCH generico sfrutti cose proprietarie, gia' fa capire tutto....

Betha23
14-02-2003, 11:33
Originally posted by "Milion"

Poi lo vado a leggere, ma se dicono la stessa cosa per me possono vergognarsi pure loro.

Ma come?...prima nvidia paladina degli standard directx e ogl "aperti", tutti contro 3dfx e le sue glide "ottimizzate", tonnellate di balle...e ora pretendono che addirittura i benchmark usino ottimizzazione proprietarie.
Ma non potevano fare un motore che gestisse gli standard?

Io ero d'accordo riguardo gli standard...ora quegli stessi ragionamenti che fine hanno fatto?
E con l'avallo di quei siti che all'epoca gridavano al miracolo sempre nell'ottica della programmazione secondo standard?
Ripeto...c'è veramente da vergognarsi :)

Milio

MA hai idea di che cosa significhi "ottimizzare"???? :confused: :eek: :confused:

Mica significa fare delle API che funzionano solo sulel sk nVidia! Significa tenere conto ANCHE delle sk nVidia! Quelli di FutureMark hanno usato uno scandaloso PS 1.4 che nono viene usato da nessun test! E guarda caso hanno "dimenticato" di inserire il supproto ai PS 1.3! :( Come si evince da extremetech il 3DMark guando esegue i test, vede che sk vieo è installata e attiva el consegueti "ottimizzazioni"! E questo non lo dice nVidia perchè le sue sk ci fanno una figura di merda, ma lo dice nVidia che ha le sk che a parità di genrezione vincono sempre! (4200vs9100 5800vs9700) ;)

Cfranco
14-02-2003, 11:34
Originally posted by "Betha23"



Invece di partire prevenuti perchè non leggete quello che scive tom's! Io sinceramente non riesco a non essere daccordo con loro! ;)
Nvidia ha ragione , ma ha anche torto :o
Ha ragione perché dice cose vere , ha torto perché dice queste cose solo quando gli fa comodo mentre per anni ha detto il contrario ...
Ha ragione quando dice che il 3D Mark 2003 non riflette gli *attuali* videogames , infatti é stato creato per dare un' idea di come saranno i giochi in *futuro* , per i giochi odierni é il 3D Mark 2001 che dà un' idea di come girano ed effettivamente c' é un certo riscontro tra quello che dice e i test dei videogiochi , tuttavia se uno vuole sapere come saranno e come gireranno i videogiochi che usciranno sul mercato fra uno-due anni non c' é alternativa .

Betha23
14-02-2003, 11:35
Originally posted by "Simon82"

Mah... idealmente stanno esagerando. Solo il fatto di pretendere che un BENCH generico sfrutti cose proprietarie, gia' fa capire tutto....

Non capuisco il tuo accanimento verso nVidia? Guarda che se fa sk poco-competitive quello che ci perde sei principalmente te! ;)

Betha23
14-02-2003, 11:36
Originally posted by "Cfranco"


Nvidia ha ragione , ma ha anche torto :o
Ha ragione perché dice cose vere , ha torto perché dice queste cose solo quando gli fa comodo mentre per anni ha detto il contrario ...
Ha ragione quando dice che il 3D Mark 2003 non riflette gli *attuali* videogames , infatti é stato creato per dare un' idea di come saranno i giochi in *futuro* , per i giochi odierni é il 3D Mark 2001 che dà un' idea di come girano ed effettivamente c' é un certo riscontro tra quello che dice e i test dei videogiochi , tuttavia se uno vuole sapere come saranno e come gireranno i videogiochi che usciranno sul mercato fra uno-due anni non c' é alternativa .

Nessun gioco userà i Ps 1.4! ;)

Cfranco
14-02-2003, 11:43
Originally posted by "Betha23"



Nessun gioco userà i Ps 1.4! ;)
Chi lo dice ? Nvidia ? :p

Comunque resto dell' idea che il polverone alzato da Nvidia sia per coprire la "vergogna" nel punteggio del test sul Ps 2.0 , anche con i driver nuovi la Geppo FX fa un terzo del punteggio della 9700 ...

Milion
14-02-2003, 11:45
Originally posted by "Betha23"



Invece di partire prevenuti perchè non leggete quello che scive tom's! Io sinceramente non riesco a non essere daccordo con loro! ;)

Betha di virtuosismi verbali e voli pindarici ne ho letti a sufficienza in tutti questi anni :)

Tom può dire quello che vuole (leggi la mia risposta precedente :)) ma la mia esperienza mi fa dire che finchè non si ragionerà sugli standard avremo motori software di cacca pieni di bug, di incompatibilità e molto scarsamente ottimizzati, facendoci rincorrere l'hw più potente per giocare decentemente.
Se gli standard fossero veri, grande parte di questi problemi si eliminerebbero e potremmo anche selezionare quelle software house che programmano coi piedi perchè verrebbe meno la scusa "è colpa della scheda video?"

Quindi al di la di tanti bei discorsi, e per quanto mi riguarda, o si attengono a quegli standard che loro stessi hanno contribuito ad affermare, oppure mi ridiano nuove glide e nuovi chip 3dfx...senza scodinzolare tanto sguinzagliando i galoppini come tom :)

E se le accuse che muovono al 3dmerd di aver favorito ati fossero vere varrebbero gli stessi discorsi...un benchmark deve valutare _a parità di condizioni_

Chissà perchè nessuno ha detto niente a proposito del codecreature programmato seguendo le ottimizzazioni di nvidia. Come mai tom's o qualche altro paladino non ha sollevato il problema nonostante che questo test venisse comunque utilizzato su schede differenti da nvidia?
Sono sinceramente stanco di tutti questi tentativi di prenderci per i fondelli...il gffx è venuto male e ormai ce l'hanno in quel posto. Se tutto quello che riescono a fare sono questi ridicoli rimpasti informativi prevedo un buio futuro per loro :rolleyes:

;)

Milio

Simon82
14-02-2003, 11:47
Originally posted by "Betha23"



Non capuisco il tuo accanimento verso nVidia? Guarda che se fa sk poco-competitive quello che ci perde sei principalmente te! ;)

Non e' accannimento..solo vedere come si :mc: smerdando il lavoro degli altri mi fa incaxxare.. per una volta nella mia vita sono dalla parte di Madonion...

nvidia deve ricordarsi grazie a chi e' diventata quello che e'.. ;)

pandyno
14-02-2003, 11:52
Non mi pare di aver visto mai ATI lamentarsi...
Tutte queste lamentele non sono ''normali'' da parte di Nvidia e ho detto tutto ;)
3dmark ha seguito il suo corso come lo ha sempre fatto.

Milion
14-02-2003, 11:57
Originally posted by "Betha23"



MA hai idea di che cosa significhi "ottimizzare"???? :confused: :eek: :confused:

Mica significa fare delle API che funzionano solo sulel sk nVidia! Significa tenere conto ANCHE delle sk nVidia! Quelli di FutureMark hanno usato uno scandaloso PS 1.4 che nono viene usato da nessun test! E guarda caso hanno "dimenticato" di inserire il supproto ai PS 1.3! :( Come si evince da extremetech il 3DMark guando esegue i test, vede che sk vieo è installata e attiva el consegueti "ottimizzazioni"! E questo non lo dice nVidia perchè le sue sk ci fanno una figura di merda, ma lo dice nVidia che ha le sk che a parità di genrezione vincono sempre! (4200vs9100 5800vs9700) ;)

Io ho un'idea ben precisa di cosa vuol dire ottimizzare...e se ti illudi che i programmatori daranno il meglio scrivendo 3 volte parti di codice per comprendere estensioni proprietarie sei un illuso :)

Riguardo al ps 1.4, ti ricordo che è compreso nelle directx 8.1.
Anzi in linea di principio per essere dx 8.1 compliante una scheda dovrebbe supportare i ps. 1.4
E' stata nvidia che attraverso non si sa quali magheggi ha avuto l'avallo da microsoft a scrivere sulle scatole delle loro schede "dx 8.1 compliant"...adducendo il fatto che gli effetti ottenibili attraverso il ps 1.4 loro potevano ottenerli con più passate di ps 1.1 - 1.3...tanto il geforce 4 di potenza ne aveva in abbondanza.
Se fai una ricerca troverai parecchi miei post vecchi su questo argomento.
Adesso che la potenza non gli basta più le cose dette allora non sono più vere? :p
Zio cane mi ricordo che dissi a suo tempo: "e se esce un applicativo che usa i ps 1.4 nvidia che fa?" :D

Per la cronaca non mi ricordo più le caratteristiche dei ps, ma ricordo ancora che la vera rivoluzione sono stati i ps 1.4, in quanto le necessità elaborative dei 1.1 e dei 1.3 erano praticamente identiche. Solo i ps 1.4 permettevano di fare più cose con una sola passata....ma prendete col beneficio di inventario questa cosa perchè non ricordo e non ho tempo di andare a cercare. Magari se qualcuno che ne capisce più di me sui ps ci da un parere ne potremmo sapere di più ancora :)

Milio

Milion
14-02-2003, 12:05
Originally posted by "Cfranco"


Ha ragione quando dice che il 3D Mark 2003 non riflette gli *attuali* videogames , infatti é stato creato per dare un' idea di come saranno i giochi in *futuro* , per i giochi odierni é il 3D Mark 2001 che dà un' idea di come girano ed effettivamente c' é un certo riscontro tra quello che dice e i test dei videogiochi , tuttavia se uno vuole sapere come saranno e come gireranno i videogiochi che usciranno sul mercato fra uno-due anni non c' é alternativa .

Ti quoto solo perchè riprendo questa linea di ragionamento e la applico al 3d mark 2001: quando uscì era vero anche per questo test che non rispecchiava la realtà attuale dei giochi, però non ricordo che tom's abbia scritto 4 pagine o che nvidia abbia fatto una press relise per dire di non tenere in considerazione tale test nella scelta di acquisto in quanto non "realistico" :p

Mi chiedo se si rendono conto in quale vortice continuino a mettersi con le loro stesse mani.

Milio

Cfranco
14-02-2003, 12:09
Originally posted by "Milion"


Riguardo al ps 1.4, ti ricordo che è compreso nelle directx 8.1.
Anzi in linea di principio per essere dx 8.1 compliante una scheda dovrebbe supportare i ps. 1.4
E' stata nvidia che attraverso non si sa quali magheggi ha avuto l'avallo da microsoft a scrivere sulle scatole delle loro schede "dx 8.1 compliant"...adducendo il fatto che gli effetti ottenibili attraverso il ps 1.4 loro potevano ottenerli con più passate di ps 1.1 - 1.3...tanto il geforce 4 di potenza ne aveva in abbondanza.
[cut]
Per la cronaca non mi ricordo più le caratteristiche dei ps, ma ricordo ancora che la vera rivoluzione sono stati i ps 1.4, in quanto le necessità elaborative dei 1.1 e dei 1.3 erano praticamente identiche. Solo i ps 1.4 permettevano di fare più cose con una sola passata....ma prendete col beneficio di inventario questa cosa perchè non ricordo e non ho tempo di andare a cercare. Magari se qualcuno che ne capisce più di me sui ps ci da un parere ne potremmo sapere di più ancora :)

Milio
Vediamo cosa dice in proposito Mikro$$oft
http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/programmingguide/programmable/pixelshaders/pixelshaderconfirm.asp
in particolare mi ha colpito :
"Pixel shader version
Number of texture samplers
ps_1_1 - ps_1_3 4 texture samplers
ps_1_4 6 texture samplers"
cosa dice Tom's
"Advanced Pixel Shader
This is a new test included in 3DMark2001 SE, and it uses Pixel Shader version 1.4, introduced in DirectX 8.1. The same effect can also be achieved using Pixel Shader 1.0, but then rendering the water surface requires two passes."
Sembra proprio che tra la vers 1.1 e la vers. 1.3 ( DX 8.0 ) non cambi niente mentre le Dx 8.1 richiedono espressamente il ps 1.4 .

Nvidia still climbing ? :mc:

pandyno
14-02-2003, 12:13
Ma poi perchè tutto sto' casotto? forse perchè le 8500 se la battono con le ti 4600 :D
Prima o poi i nodi tornano al pettine, ora di giochi ce sfruttano i PS 1.4 non ce ne sono, e si lamentano per 3dzozz figurarsi se ne esce solo uno di gioco, vedere la 4600 relegata dietro una 9000pro magari :rolleyes:

devis
14-02-2003, 12:30
Originally posted by "Betha23"


ma lo dice nVidia che ha le sk che a parità di genrezione vincono sempre! (4200vs9100 5800vs9700) ;)

Le 8500/9100 sono della generazione GF3

Betha23
14-02-2003, 12:32
Originally posted by "pandyno"

Ma poi perchè tutto sto' casotto? forse perchè le 8500 se la battono con le ti 4600 :D
Prima o poi i nodi tornano al pettine, ora di giochi ce sfruttano i PS 1.4 non ce ne sono, e si lamentano per 3dzozz figurarsi se ne esce solo uno di gioco, vedere la 4600 relegata dietro una 9000pro magari :rolleyes:

Ik problema è che non è che nVidia si lamenta dicendo "le nostre sk sono più lente perchè etc etc" ma si lamenta anche avendo le sk che a parità di "generazione" spaccano di brutto! :eek:

Betha23
14-02-2003, 12:35
Originally posted by "devis"



Le 8500/9100 sono della generazione GF3

La 8500 è uscita 6 mesi dopo la GF3 e la GF4 è uscita 6 mesi dopo la 8500.....mi pare che i conti tornino! ;)

CS25
14-02-2003, 12:43
L'intervento di Betha23 vi e' passato CASUALMENTE inosservato?

"the info we have is..
- no one have a geforceFx ultra to test if the problem happen in
the geforcefx
-the problem happens in some users with 42.86 drivers and in some other not.
-missing graphics and display errors happens too with some
radeon9700pro users ,look at my first post
-the Nvidia drivers 42.67 used in the HArdocp test are not available for
download ,people are testing 42.86 as reference..
- as far as i know the only game-test where the error happen is in game1
- the diference between the the old 42.63 and 42.67 drivers in the
geforcefx is near none...173.9fps vs 175.6 fps!!! 2 frames diference
- the missing explosions in the G1 test is too obvious ,too big for
someone try that technique just to earn 1-2 FPS
-the tread is dead now ,noone talks about this anymore "

Per i non anglofili dice che

1- Nessuno ha uan GeforceFx per vedere se il problema appare anche nelle GefroceFx.
2- Il problema appare in alcuni utenti con i 42.86 e in altri no.
3- Il problema appare anche ad alcuni utenti con le 9700.
4- I Driver pertestare el GFx non sono rintracciabili e quindi tutti stano usando i 42.86.
5- Il solo test dove appare l'errore è il Test1
6- LA differenza di FPS tra i 2 driver nel test1 è ridicola, la mancanza di esplosiano avrebbe dato un boost molto più grande!
7- Il thread dove se ne parlava è morto e nessuno ne parla più!


Credo che si debba vergognare PROFONDAMENTE chi si riempie la bocca di paroloni riguardo "truffa, imbroglio" e cazzate simili, senza considerare i punti di cui sopra, in cui si spiega chiaramente che L'UNICO test influenzato e' il test1, nel quale la scheda gffx non ha raddoppiato gli fps : rolleyes: e che contribuisce al risultato in maniera infima :rolleyes:

Ne approfitto per dire qualcosa sulla questione dei Pixel Shader : il gf4 ti, nonostante sia stato detto e ridetto tutto e il contrario di tutto, *dovrebbe* supportare i PS 1.3 ma in pratica Nvidia stessa la considera utilizzare i PS 1.1.
Non hanno mai attivato nei driver la possibilita' di sfruttare l'estensione ampliata, per quale motivo lo ignoro, fatto sta che in pixel shader e' 1.1 effettivo, 1.3 teorico :confused:
Di conseguenza usa piu' passate in determinati casi del radeon8500, cosa che nei giochi fino ad oggi non s'e' mai verificata poiche' nessuno ha mai spremuto all'estremo i PS... se non forse in Unreal 2 dove comunque il gf4 risulta piu' veloce della controparte Ati.
Augh (grande capo vuole pranzo), altro non saprei dire.

pandyno
14-02-2003, 12:43
Originally posted by "Betha23"



Ik problema è che non è che nVidia si lamenta dicendo "le nostre sk sono più lente perchè etc etc" ma si lamenta anche avendo le sk che a parità di "generazione" spaccano di brutto! :eek:

Se stanno facendo tutto sto' casotto è perchè per la prima volta si trovano in difficoltà, insomma quell' abisso di differenza non c' è + se 5fps lo reputi un' incremento considerevole ;)

pandyno
14-02-2003, 12:44
cs25 abbiamo letto tutti, ma il problema esiste e Nvidia lo conferma con tutto il rumore che ha fatto

ps ma che cavolo di traduzioni fate :D

CS25
14-02-2003, 12:45
E il vantaggio quale sarebbe? 2 fps nel test 1? Ovvero 14 punti? E con dei driver che non sono di pubblico dominio e che NON sono piu' veloci dei 42.86 di pubblico dominio?
C'e' solo tanta gente che non sa come perdere tempo, si sta sfociando nel patetico (e mi riferisco agli scemi che hanno generato la polemica, non chi ha creato ed ha partecipato al thread, chiariamo)

pandyno
14-02-2003, 12:47
Non ho capito stai parlando con me?

CS25
14-02-2003, 12:49
Si, ma rispondevo al fatto che questa polemica e' nata dal nulla :confused:

pandyno
14-02-2003, 12:55
Beh io dico solo una cosa: cosi' facendo Nvidia è nel Patetico, perchè? perchè non accetta che per la prima volta è al pari con la concorrenza e mi fa ridere quello che dicono, ottimizzazione? ma di cosa?
Hanno rotto le @@ ai tempi delle glide e cacchi vari e ora vogliono l' ottimizzazione? ma per favore LOL :D

5fps in +? beh d a30 a 35 la differenza tende allo 0 se stava zitta era tutto di guadagnato ;)

Per il resto è possibile che abbia usato dei driver ''tarocchi'' col primo geforce e 3dmark2000 nvidia aveva disattivato l' effetto luce ai razzi dell' elicottero che li spara (game1 mi pare) ed infatti appena lo ha riattivato i punteggi andavano giu' a parte questo nessuna polemica contro la scheda, ma contro l' operato e le strategie sono RIDICOLE ;)

Alla fine si rivelerà un prodotto come al solito valido, ma le manie di persecuzione che dimostra questi ultimi tempi mi fanno ridere :D

ps nessuna polemica è molto verosimile la questione :) ;)

CS25
14-02-2003, 12:58
Ma il problema continua a sfuggirmi : Nvidia sconsiglia di usare il 3dmark2003. E allora? Sti gran caxxi :D
Io l'ho comprato e lo usero' nelle recensioni e nelle comparazioni perche' A ME sembra valido, poi il resto e' storia.

Ma se tutti quelli che hanno sempre dato addosso al 3dmark accusandolo di non servire a niente ora per magia lo rivalutassero solo perche' ora e' Nvidia a snobbarlo, mi farei GRASSE risate per l'ennesimo show di patetica incoerenza :D

Ancora una volta, nessun riferimento a te ;)

EDIT : Ricorda che quando uscirono i detonator XP, nel test dragothic la nebbia iniziale appariva qualitativamente orripilante per un bug nei driver. Tutti a vomitare cavolate sul fatto che serviva per guadagnare punti, 3 giorni dopo usci' una release fixata con la nebbia corretta e gli stessi identici fps. Oramai c'e' talmente tanta gente che campa per spalare merda e che non si pone nemmeno per un secondo lo scrupolo di VERIFICARE determinate cose, troppo indaffarata con la pala :rolleyes:

pandyno
14-02-2003, 13:01
Il problema è quello! :D lo sconsiglia ORA invece prima che ci ha fatto i $$ niente LOL :D
3dmark ha fatto la sua naturale evoluzione non capisco il perchè di tutto casotto, forse perchè ora le 9500 sono reputate 4 spanne sopra le ti 4200? ;)

mi sà di si! :D

Beh come già detto l' ignoranza la fa da sovrana, scommetto che se posto il risultato con la 9500 a 3dmark fanno a spinte per comperarla, cosa he non facevano prima LOL :D

ora vado a pranzo buon pranzo a tutti ;)

Milion
14-02-2003, 13:08
Cs teniamo gli occhi sulla palla d'accordo? :)

Tu faresti bene a farti grasse risate se tutto ad un tratto chi ha sempre dato contro al 3dmark ora lo rivalutasse, ma intanto le grasse risate me le faccio io a leggere il modo in cui nvidia scondinzola e come siti come tom's hard gli danno una mano ad arrampicarsi sugli specchi. E altre grasse risate sempre per la sua coerenza (dx 8.1 compliant voluto da nvidia e rinnegato ora a quanto sembra, gli standard prima imposti e ora contestati a favore di estensioni proprietarie) :D

Per quanto mi riguarda non mi frega granchè dei drivers eventualmente cheattati, semmai lo sono,...mi tornano invece in mente vecchie discussioni in cui esprimevo delle ipotesi che ora si stanno rivelando tutte vere e fondate, come i ps 1.4 per esempio.

Milio

CS25
14-02-2003, 13:12
Per me puo' pure dire che i preservativi fanno venire l'aids, io di solito ragiono con la mia testolina ;)
Con questo ovviamente non intendo dire che tu non lo faccia, ma non commettiamo l'errore di credere che Nvidia NON continuera' ad ottimizzare i driver per 3dmark2003, cosi' come Ati... semplicemente a loro il 2003 non piace e non fa leva sulle peculiraita' della loro scheda :)

Ma il soggetto del thread e' GROTTESCO : "nvidia 3dmark2003 cheat", ti rendi conto? :D

Il vero unico e fondamentale cheat che TUTTI mettevano nel 3dmark2001 era un aggressivissimo z-compression / z-occlusion e/o z-culling che dava un vantaggio prestazionale enorme e veniva settato in modo da non creare problemi grafici. Fosse stato applicato anche nei giochi, avremmo visto sovrapposizioni errate, texture trasparenti e via dicendo. Questo vale sia per Ati che per Nvidia, in quanto i guadagni maggiori li hanno avuti in Nature e Dragothic che casualmente hanno un fattore di ovedraw elevatissimo ;)
Figurati se vanno a perdere tempo di fronte a cose VISIBILI, se la vogliono fare sporca hanno ben altre possibilita' :eek:

Jaguar64bit
14-02-2003, 13:13
Originally posted by "pandyno"

Il problema è quello! :D lo sconsiglia ORA invece prima che ci ha fatto i $$ niente LOL :D
3dmark ha fatto la sua naturale evoluzione non capisco il perchè di tutto casotto, forse perchè ora le 9500 sono reputate 4 spanne sopra le ti 4200? ;)

mi sà di si! :D

Beh come già detto l' ignoranza la fa da sovrana, scommetto che se posto il risultato con la 9500 a 3dmark fanno a spinte per comperarla, cosa he non facevano prima LOL :D

ora vado a pranzo buon pranzo a tutti ;)


Bravo Pandy e' proprio quello , tutti quelli che hanno le 4200 e fanno punteggi di 1400 punti ci sono rimasti male , ed in effetti finche' si parla di Dx8 le GeForce4Ti sono buone schede , ma se x assurdo oggi uscissero 10 videogame che sfruttano appieno le Dx9 , una 9500Liscia li farebbe girare molto meglio di una Ti4600.........

CS25
14-02-2003, 13:17
Originally posted by "Milion"

Cs teniamo gli occhi sulla palla d'accordo? :)



E allora mi tocca rispondere all'unica parte in topic, visto che il soggetto e' "driver cheat per 3dmark2003" :D

Ma visto che e' San Valentino e mi sento piu' buono, rispondo alla parte che non c'entra niente col topic :)
Ripeto, se tutti hanno sempre ritenuto il 3dmark una buffonata, dovrebbero essere contenti se Nvidia l'ha mollato.... che poi i motivi non siano "perche' non vale la pena" ma in realta' "perche' non rema a favore del 3dmark", il risultato finale e' lo stesso.

In tutto questo pero', ribadisco, sono contrario alla presa di posizione di nvidia, perche' io ritengo il 3dmark2003 uno dei test da effettuare per una lunga serie di motivi.
Tutti lo ottimizzeranno, quindi vada come vada, rimane uno strumento comodissimo per noi addetti ai lavori amatoriali :)

Riguardo i PS, tecnicamente il gf supporta fino alla 1.3, nei driver sorge il dubbio che sia abilitato in modalita' 1.1... il resto e' tutto non confermabile. In molte recesioni ed articoli si trova citato 1.3, in altri 1.1...

CS25
14-02-2003, 13:18
Originally posted by "Jaguar64bit"




Bravo Pandy e' proprio quello , tutti quelli che hanno le 4200 e fanno punteggi di 1400 punti ci sono rimasti male , ed in effetti finche si parla di Dx8 le GeForce4Ti sono buone schede , ma se x asurdo oggi uscissero 10 videogame che sfruttano appieno le Dx9 , una 9500Liscia li farebbe girare molto meglio di una Ti4600.........

Se siamo fortunati i primi giochi VERI DX9 li vedremo verso i primi mesi del 2005. 2 anni ci sono voluti per vedere VERI DX8 :eek: :muro:
Tant'e' che il 3dmark2003 propone 1 test dx7, 2 test dx8.1 e un test "quasi completamente" dx9, nel senso che puo' venire eseguita la parte in vertex shader anche in modalita' retrocompatibile 1.1... ma che comunque non puo' essere eseguito da schede non dx9 per la pressocche' totale impossibilita' di affrontare la parte PS 2.0

Custode
14-02-2003, 13:19
Non mi parlate di DX9, per favore...io sto ancora aspettando di vedere un gioco valido che sfrutti come Dio comanda le DX8 :D :cry: :cry: :cry:
Ciao.

Jaguar64bit
14-02-2003, 13:20
Originally posted by "CS25"



Se siamo fortunati i primi giochi VERI DX9 li vedremo verso i primi mesi del 2005. 2 anni ci sono voluti per vedere VERI DX8 :eek: :muro:


Su questo hai pienamente ragione......infatti io ho scritto " se x assurdo ".......... :) ;)

CS25
14-02-2003, 13:20
Ho aggiunto un pezzo, sorry ;)

Betha23
14-02-2003, 13:25
Originally posted by "pandyno"

Il problema è quello! :D lo sconsiglia ORA invece prima che ci ha fatto i $$ niente LOL :D
3dmark ha fatto la sua naturale evoluzione non capisco il perchè di tutto casotto, forse perchè ora le 9500 sono reputate 4 spanne sopra le ti 4200? ;)

mi sà di si! :D

Beh come già detto l' ignoranza la fa da sovrana, scommetto che se posto il risultato con la 9500 a 3dmark fanno a spinte per comperarla, cosa he non facevano prima LOL :D

ora vado a pranzo buon pranzo a tutti ;)

A mio avviso c'è un problema che nessuno sta valutando, ossia che questo 3DMArk non valuta il sisitema, ma SOLO la sk video! Mi speigo meglio uno con un P4 1.6A fa gli stessi punteggi di uno con un P4 2.8! :eek: Allora se FutureMark lo vuole definire un test per le SCHEDE VIDEO lo si può accettare, ma se lo si proclama come un "gamer banchmark" c'è qualcosa che non va! Purtroppo quello che dice nVidia è tragicamnte vero! Questo 3DMark coi giochi non ha niente a che fare! A parte il fatto che usa degli accorgimenti tecnici che non sono e non saranno mai applicati nei game (Ps 1.4, gestione dei vertex, test aereo etc etc) il problema è che la gente che vede questi bench potrebbe dire "mazza che fico sto Pc che da 3500 al 3DMark03" quando poi sotto c'è una 9500 con un Duron 1.3 che Unreal2 non lo fa girare manco a spinte! Questo bench a mio avviso ha la stessa attendibbilità di Sanda o Pcmark, cioè nessuna se confrontati con le applicazioni reali! ;)

pandyno
14-02-2003, 13:43
Beh come già detto l' ignoranza la fa da sovrana

Beh l' ho sempre detto che 3dmark non serve a nulla, ma ora che lo dice NVIDIA non ci sto.
Deve capire che quello che ha detto è una pagliacciata.
Spero che molti utenti restino nella loro ignoranza, prima o poi il manico del coltello (3dzozz)cambia posizione :D

PS a proposito vendo radeon 9500 liscia 3700punti al 3dmark2003 + del triplo di una ti 4600 :D

LOL

pandyno
14-02-2003, 13:50
Originally posted by "CS25"

Per me puo' pure dire che i preservativi fanno venire Ma il soggetto del thread e' GROTTESCO : "nvidia 3dmark2003 cheat", ti rendi conto? :D



Il titolo l' ho preso pari pari dal forum di hardocp, non avevo voglia di inventarmi chissà cosa :D

http://www.hardforum.com/showthread.php?s=1b6e1f15562e74bba68e91639c47fd02&threadid=569104

Hey Kyle.. Nvidias new Drivers *cheat* in 3Dmark03

Appunto ;)

Hanamichi
14-02-2003, 13:54
ragazzi, mi potreste spiegare in sintesi cos'è successo? io e l'inglese siamo come cane e gatto quindi..... :D

THANK YOU

CS25
14-02-2003, 14:03
Originally posted by "pandyno"



Beh l' ho sempre detto che 3dmark non serve a nulla, ma ora che lo dice NVIDIA non ci sto.
Deve capire che quello che ha detto è una pagliacciata.


E tu le fai compagnia? :D :D

CS25
14-02-2003, 14:03
Originally posted by "pandyno"



Il titolo l' ho preso pari pari dal forum di hardocp, non avevo voglia di inventarmi chissà cosa :D

http://www.hardforum.com/showthread.php?s=1b6e1f15562e74bba68e91639c47fd02&threadid=569104

Hey Kyle.. Nvidias new Drivers *cheat* in 3Dmark03

Appunto ;)

Certo, ti sei fatto scudo della sua ignoranza? :D

Betha23
14-02-2003, 14:06
Stavo osservando la rece di anandtech...e beh......coem mai fanno vedre gli screenshot fatto con la modalità "aggressive" dell'AA e poi fanno i test in modalità "balanced"???

Cioè prima dicono che la Fx ha una qualità skifosa (ed è vero con l'AA aggressive fa pena) e poi la testano in modalità Balanced!????!1! :eek: :confused:

pandyno
14-02-2003, 14:07
Compagnia in cosa scusa? vorresti negare l' evidenza?
Ti pare che il comportamento di nvidia sia corretto vero?
Nvidia può dire quel che gli pare, ma per anni c' ha fatto i soldi ora i conti non gli ritornano e cambia idea?

ripeto ancora una volta:

di 3dzozz nn me ne puo' fregare di nulla
delle prestazioni della fx neanche

quello che mi preme è:

Come si permette ora nvidia di dire che 3dmak non serve a nulla?
è meglio che aggiusti l' AA invece di perdersi in chiacchere ;)

Betha23
14-02-2003, 14:08
Originally posted by "UltimateBou"



mii ma allora sei convinto che gef4 e r8500 sono della stessa generazione! la gef3 neanche esiste in quanto è stata rimpiazzata dalla ti500 la cui controparte ati è la 8500. Poi nvidia vedendo che ti500 vs R8500 era bene o male pari, ha fatto la gef4, ma dopo! la gef4 è a metà di generazione tra r8500 e r9700. Se la metti così ti posso dire allora che la 9700 e la 4600 sono della stessa generazione, solo che il divario tra 4600 e 9700 tenderà ad aumentare sempre di più, tra 4600 e 8500 forse tende a diminuire (per via dei pixel shader). E la 9700 che fa alla 4600, l'ANNIENTA! E se la 9700 e la 4600 sono della stessa generazione, la geffx che è di una generazione sopra la 4600, le prende dalla 9700, scheda di generazione precedente??! Ma per cortesia...

Adesso le cose stanno così:

tra gef3 ti500 e 8500 ormai adesso penso che non ci siano dubbi su qual'è la più veloce. La gef4 è una cosa a parte, la 9700 pro rispetto alla geffx dovrebbe essere una generazione di meno, ma è indubbio che nvidia ha ritardato così tanto che alla fine la geffx è della stessa generazione della 9700 pro, peccato che ati stia passando alla successiva o quasi.

CS25, tu parli di titoli grotteschi, beh neanche tu hai scherzato con questo: "Le recensioni del GeforceFX sono sbagliate?" (http://forum.hwupgrade.it/viewtopic.php?t=387624)

quando l'unica cosa di sbagliato era forse la qualità video, ma i test erano corretti (anche se con driver "vecchi", ma tanto nvidia ha dichiarato che i driver nuovi aumentano solo 3dmark03, e se lo fanno con il trucchetto NO ESPLOSIONI, se li potevano anche tenere). :D

Am sai cos'è una generazione?? Io parlo di Dx8, Dx9 etc etc! Le 8500 e le 4200 sono bene o male della stessa genrazione solo che la 4200 è uscita dopo. Bene la 4200 annienta la 8500.

La Fx e la 9700 sono della stesa generazione, bene la Fx ha superato la 9700 nel test.

CS25
14-02-2003, 14:08
Originally posted by "UltimateBou"



CS25, tu parli di titoli grotteschi, beh neanche tu hai scherzato con questo: "Le recensioni del GeforceFX sono sbagliate?" (http://forum.hwupgrade.it/viewtopic.php?t=387624)

quando l'unica cosa di sbagliato era forse la qualità video, ma i test erano corretti (anche se con driver "vecchi", ma tanto nvidia ha dichiarato che i driver nuovi aumentano solo 3dmark03, e se lo fanno con il trucchetto NO ESPLOSIONI, se li potevano anche tenere). :D

Hai detto niente, forse l'unica cosa sbagliata era la qualita' video... in una scheda video.... beh LOL :D :D

CS25
14-02-2003, 14:09
Originally posted by "UltimateBou"

Dal post "Le recensioni del GeforceFX sono sbagliate?"



questo non l'ho scritto io :D

pandyno ha fatto lo stesso ;)

Con la piccola differenza che quel titolo c'ha un punto interrogativo fin dall'origine, la differenza non e' poca :)

Hanamichi
14-02-2003, 14:09
ragazzi qualcuno mi spiega bene? da quello che ho capito nvidia con geppo fx usa dei trucchi nel 3d merd 2003 che fà aumentare il suo pt di un bel pò! è così o non ho capito una minchia? :D

pandyno
14-02-2003, 14:10
Originally posted by "CS25"



Certo, ti sei fatto scudo della sua ignoranza? :D

LOL ti piacerebbe

CS25
14-02-2003, 14:11
Originally posted by "pandyno"

Compagnia in cosa scusa? vorresti negare l' evidenza?
Ti pare che il comportamento di nvidia sia corretto vero?
Nvidia può dire quel che gli pare, ma per anni c' ha fatto i soldi ora i conti non gli ritornano e cambia idea?

ripeto ancora una volta:

di 3dzozz nn me ne puo' fregare di nulla
delle prestazioni della fx neanche

quello che mi preme è:

Come si permette ora nvidia di dire che 3dmak non serve a nulla?
è meglio che aggiusti l' AA invece di perdersi in chiacchere ;)

Il comportamento di Nvidia corretto? E quando mai l'ho detto? A parte che dovresti spiegarmi cosa c'e' di scorretto nello smettere di spingere nel 3dmark... semmai era scorretto farlo, non smettere di farlo.
Che poi le motivazioni non siano "nobili", cio' che conta e' che magari in un futuro la gente considerera' il 3dmark UN test e non IL test. Utile, utilissimo, ma non la bibbia.

Riguardo l'affermazione finale sono d'accordo, chi non lo e'? :D

CS25
14-02-2003, 14:13
Originally posted by "UltimateBou"



beh si, hai ragione, è bella la fatina, poi se gira a 3 fps non fa nulla :D

il punto interrogativo nel tuo post non faceva altro che rendere il titolo quasi un messaggio subliminale... :D

A parte che la fatina non l'hai vista girare, quindi il fantahardware te lo lascio... da quando in qua il punto interrogativo rende una frase un messaggio subliminale? :eek:
Ironico non era, retorico non era, era proprio l'espressione di un dubbio, accompagnato da un articolo esplicativo che scendeva tecnicamente nel dettaglio.
E' un po' differente dall'affermazione "Cheat drivers for 3dmark"

Betha23
14-02-2003, 14:14
Insomma cagate il mio post su anand plz!!!!!!!!!! ;)

Dragon2002
14-02-2003, 14:18
Originally posted by "Hanamichi"

ragazzi qualcuno mi spiega bene? da quello che ho capito nvidia con geppo fx usa dei trucchi nel 3d merd 2003 che fà aumentare il suo pt di un bel pò! è così o non ho capito una minchia? :D

:cry: :cry: :cry: Anche io mi unisco a Hanamichi spiegate tutto a dei poveri ignorantoni come noi che nn capiscono un'H di inglese.

Betha23
14-02-2003, 14:19
42.68 disponibili!!!!!! è il momento della verità! Buon DL a tutti

http://hwextreme.com/reviews/misc/nvidia_4268/

Custode
14-02-2003, 14:19
Breve riassunto per Hanamichi:

si sta facendo un gran parlare di presunti trucchetti utilizzati da NVidia nei suoi ultimi Detonator per alzare il punteggio finale nel 3DMark2003 e, quindi, avvantaggiarsi sulle 9700Pro. Alcuni sostengono che con questi fantomatici driver truccati le GF FX guadagnino fps nei game test non visualizzando alcuni effetti grafici tipo esplosioni o cose del genere...

Per contro la cosa sembra essere una grandissima "fregnaccia" (come si dice qui a Roma e dintorni), primo perchè tali artefatti grafici accadono solo su alcune versioni di Detonator (e nemmeno sempre...) e solo ed esclusivamente nel Game Test 1 (sembra che le esplosioni sugli aerei non vengano disegnate...), secondo perchè non avendo nessuno una GF FX può effettivamente verificare tali accuse, terzo perchè anche così il guadagno in prestazioni è di soli 2fps, ininfluente sul calcolo del punteggio finale, ed è inverosimile che per guadagnare 2fps NVidia usi dei mezzucci così palesemente vistosi.

Più o meno a grandi linee la faccenda è questa.
Ciao.

Betha23
14-02-2003, 14:21
Originally posted by "Custode"

Breve riassunto per Hanamichi:

si sta facendo un gran parlare di presunti trucchetti utilizzati da NVidia nei suoi ultimi Detonator per alzare il punteggio finale nel 3DMark2003 e, quindi, avvantaggiarsi sulle 9700Pro. Alcuni sostengono che con questi fantomatici driver truccati le GF FX guadagnino fps nei game test non visualizzando alcuni effetti grafici tipo esplosioni o cose del genere...

Per contro la cosa sembra essere una grandissima "fregnaccia" (come si dice qui a Roma e dintorni), primo perchè tali artefatti grafici accadono solo su alcune versioni di Detonator (e nemmeno sempre...) e solo ed esclusivamente nel Game Test 1 (sembra che le esplosioni sugli aerei non vengano disegnate...), secondo perchè non avendo nessuno una GF FX può effettivamente verificare tali accuse, terzo perchè anche così il guadagno in prestazioni è di soli 2fps, ininfluente sul calcolo del punteggio finale, ed è inverosimile che per guadagnare 2fps NVidia usi dei mezzucci così palesemente vistosi.

Più o meno a grandi linee la faccenda è questa.
Ciao.
Più o meno è così compatriota romano! :D :D (di che zona poi?)

Cfranco
14-02-2003, 14:22
Originally posted by "Betha23"

Insomma cagate il mio post su anand plz!!!!!!!!!! ;)
Occhio che ti sei fatto fuorviare dalle scritte sulle immagini ( lo stesso errore l' avevo fatto anch' io ) l' impostazione "aggressive" si riferisce al solo filtro anisotropico , non all' AA , per questo esistono solo le impostazioni 2X , QC , 4x .. etc

Jaguar64bit
14-02-2003, 14:23
Originally posted by "Custode"

Breve riassunto per Hanamichi:

si sta facendo un gran parlare di presunti trucchetti utilizzati da NVidia nei suoi ultimi Detonator per alzare il punteggio finale nel 3DMark2003 e, quindi, avvantaggiarsi sulle 9700Pro. Alcuni sostengono che con questi fantomatici driver truccati le GF FX guadagnino fps nei game test non visualizzando alcuni effetti grafici tipo esplosioni o cose del genere...

Per contro la cosa sembra essere una grandissima "fregnaccia" (come si dice qui a Roma e dintorni), primo perchè tali artefatti grafici accadono solo su alcune versioni di Detonator (e nemmeno sempre...) e solo ed esclusivamente nel Game Test 1 (sembra che le esplosioni sugli aerei non vengano disegnate...), secondo perchè non avendo nessuno una GF FX può effettivamente verificare tali accuse, terzo perchè anche così il guadagno in prestazioni è di soli 2fps, ininfluente sul calcolo del punteggio finale, ed è inverosimile che per guadagnare 2fps NVidia usi dei mezzucci così palesemente vistosi.

Più o meno a grandi linee la faccenda è questa.
Ciao.


Anche perche se Nvidia avesse fatto una citronata del genere , il calo d'immagine sarebbe stato grande............x me' sono solo bug dei driver non voluti..........

Custode
14-02-2003, 14:24
Bè, non proprio romano (infatti ho specificato Roma e dintorni :D), ma dei castelli, per la precisione Velletri.
Ciao!

Betha23
14-02-2003, 14:25
Originally posted by "Custode"

Bè, non proprio romano (infatti ho specificato Roma e dintorni :D), ma dei castelli, per la precisione Velletri.
Ciao!

Ahhhhhhh un provinciale! :D Skerzo io di villa pamphili! ;)

CS25
14-02-2003, 14:36
Pronvicia di Roma rulez... ok, fine ot ;)

pandyno
14-02-2003, 14:57
Originally posted by "Custode"

Breve riassunto per Hanamichi:

si sta facendo un gran parlare di presunti trucchetti utilizzati da NVidia nei suoi ultimi Detonator per alzare il punteggio finale nel 3DMark2003 e, quindi, avvantaggiarsi sulle 9700Pro. Alcuni sostengono che con questi fantomatici driver truccati le GF FX guadagnino fps nei game test non visualizzando alcuni effetti grafici tipo esplosioni o cose del genere...

Per contro la cosa sembra essere una grandissima "fregnaccia" (come si dice qui a Roma e dintorni), primo perchè tali artefatti grafici accadono solo su alcune versioni di Detonator (e nemmeno sempre...) e solo ed esclusivamente nel Game Test 1 (sembra che le esplosioni sugli aerei non vengano disegnate...), secondo perchè non avendo nessuno una GF FX può effettivamente verificare tali accuse, terzo perchè anche così il guadagno in prestazioni è di soli 2fps, ininfluente sul calcolo del punteggio finale, ed è inverosimile che per guadagnare 2fps NVidia usi dei mezzucci così palesemente vistosi.

Più o meno a grandi linee la faccenda è questa.
Ciao.

Dunque, hai riassunto molto bene, la ''bufala'' dei driver sarà come al solito una bufala, ma il fatto che ORA nvidia rinneghi il 3dzozz la dice tutta ;)
Per il resto niente di chè 3dzozz nn serve a nulla e 23495739857982536 volte che lo dico :D
Vediamo se aggiustano il fatidico AA

PS aggiungo che la mia non voleva essere un' attacco ai driver tarocchi, ma ho semplicemente riportato la cosa titolo, link e shoot annessi.
Il mio voleva essere un modo per aprire un 3d incentrato NON su 3dzozz, ma sulle dichiarazioni di nvidia lette in questi giorni che mi lasciano alquanto perplesso ;)
ciaoz

devis
14-02-2003, 15:28
Originally posted by "Betha23"



La 8500 è uscita 6 mesi dopo la GF3 e la GF4 è uscita 6 mesi dopo la 8500.....mi pare che i conti tornino! ;)

La FX è deve ancora uscire a distanza di 6 mesi dopo la 9700.. ;)

Custode
14-02-2003, 15:32
Bè, guarda, dovendo esprimere la mia opinione penso di riuscire a fare un gran calderone di idee già da voi precedentemente espresse :);

concordo con quanto sostiene CS25, indipendentemente da quello che NVidia consigli o sconsigli, è innegabile che il non basare tutto su sto benedetto programma sia una cosa positiva. Uno i bench se li può fare fin che vuole, ma dannarsi per le prestazioni lascia il tempo che trova, effettivamente i giochi reali sono ben altra cosa.
Insomma, ignorando il passato ed isolandole al solo presente, trovo che le dichiarazioni NVidia circa il 3DMark siano veritiere e fondate, anzi...da applauso.

Purtroppo, però, i raffronti si devono fare, e guardando indietro nel tempo non si può che provare un forte senso di disgusto verso le dichiarazioni dei PR NVidia, che, lo ripeto, sono più deleterie che altro per l'immagine della società. E' come vedere uno dei tantissimi politici che saltano da una sponda all'altra a seconda di come tiri la corrente...e ciò è vergognoso.

Non credo minimamente alla storia dei driver taroccati, ridicola è dir poco, in quanto la stessa NVidia ha dichiarato di come tali driver siano stati pensati solo ed esclusivamente per avvalorare le proprie tesi di inutilità del 3DMark, ovvero ti ottimizzo (e ripeto, ottimizzo, non trucco...) i driver per un programma per dimostrarti che il guadagno che ottieni non è riscontrabile nelle situazioni reali. E' una cosa che fanno tutti dai tempi del 3DMark2001, punto.

Poi uno può ricamarci sopra finchè vuole e trarre le proprie conclusioni, ma non credo che i problemi (perchè per me i problemi ci sono) della GF FX siano nel non ottenere un gran punteggio nel nuovo 3DMark.
Ciao.

pandyno
14-02-2003, 15:54
Originally posted by "Custode"

Purtroppo, però, i raffronti si devono fare, e guardando indietro nel tempo non si può che provare un forte senso di disgusto verso le dichiarazioni dei PR NVidia, che, lo ripeto, sono più deleterie che altro per l'immagine della società. E' come vedere uno dei tantissimi politici che saltano da una sponda all'altra a seconda di come tiri la corrente...e ciò è vergognoso.


Esattamente ;)
credo che tu abbia espresso correttamente il mio pensiero e quello di molti, compreso tutto il resto che non ho quotato.
beh che dire penso che la maggior parte di noi sia d' accordo :cool: ;)

WhiteBase
14-02-2003, 17:17
Originally posted by "Betha23"

Stavo osservando la rece di anandtech...e beh......coem mai fanno vedre gli screenshot fatto con la modalità "aggressive" dell'AA e poi fanno i test in modalità "balanced"???

Cioè prima dicono che la Fx ha una qualità skifosa (ed è vero con l'AA aggressive fa pena) e poi la testano in modalità Balanced!????!1! :eek: :confused:

Anand l'ha fatto per un semplice motivo: dato che la qualità video della FX a parità di antialiasing dichiarato era nettamente inferiore di ATI ha testato le due schede a parità di qualità nell'antialiasing effettiva (e non banfata). A parità di qualità reale la fx le prendeva da ATI. Comunque nella recensione è spiegato in dettaglio il motivo della scelta

Dragon2002
14-02-2003, 18:00
Originally posted by "Betha23"



Ahhhhhhh un provinciale! :D Skerzo io di villa pamphili! ;)

Ehi cos'hai con i provinciali anche io sono di Velletri. :D :D :D

Custode
14-02-2003, 18:43
Anche tu di Velletri? :eek:
Scherzi o dici sul serio?...ops scusate l'ennesimo OT, ma tra compaesani :D
Ciao.

Dragon2002
14-02-2003, 19:03
Originally posted by "Custode"

Anche tu di Velletri? :eek:
Scherzi o dici sul serio?...ops scusate l'ennesimo OT, ma tra compaesani :D
Ciao.

Velletrano al 100%

Hanamichi
14-02-2003, 19:14
Originally posted by "Custode"

Breve riassunto per Hanamichi:

si sta facendo un gran parlare di presunti trucchetti utilizzati da NVidia nei suoi ultimi Detonator per alzare il punteggio finale nel 3DMark2003 e, quindi, avvantaggiarsi sulle 9700Pro. Alcuni sostengono che con questi fantomatici driver truccati le GF FX guadagnino fps nei game test non visualizzando alcuni effetti grafici tipo esplosioni o cose del genere...

Per contro la cosa sembra essere una grandissima "fregnaccia" (come si dice qui a Roma e dintorni), primo perchè tali artefatti grafici accadono solo su alcune versioni di Detonator (e nemmeno sempre...) e solo ed esclusivamente nel Game Test 1 (sembra che le esplosioni sugli aerei non vengano disegnate...), secondo perchè non avendo nessuno una GF FX può effettivamente verificare tali accuse, terzo perchè anche così il guadagno in prestazioni è di soli 2fps, ininfluente sul calcolo del punteggio finale, ed è inverosimile che per guadagnare 2fps NVidia usi dei mezzucci così palesemente vistosi.

Più o meno a grandi linee la faccenda è questa.
Ciao.

grazie custode! ;) bè se è così nvidia non sa più cosa fare! :eek:

Grezzo
14-02-2003, 19:44
Originally posted by "Betha23"



A mio avviso c'è un problema che nessuno sta valutando, ossia che questo 3DMArk non valuta il sisitema, ma SOLO la sk video! Mi speigo meglio uno con un P4 1.6A fa gli stessi punteggi di uno con un P4 2.8! :eek: Allora se FutureMark lo vuole definire un test per le SCHEDE VIDEO lo si può accettare, ma se lo si proclama come un "gamer banchmark" c'è qualcosa che non va! Purtroppo quello che dice nVidia è tragicamnte vero! Questo 3DMark coi giochi non ha niente a che fare! A parte il fatto che usa degli accorgimenti tecnici che non sono e non saranno mai applicati nei game (Ps 1.4, gestione dei vertex, test aereo etc etc) il problema è che la gente che vede questi bench potrebbe dire "mazza che fico sto Pc che da 3500 al 3DMark03" quando poi sotto c'è una 9500 con un Duron 1.3 che Unreal2 non lo fa girare manco a spinte! Questo bench a mio avviso ha la stessa attendibbilità di Sanda o Pcmark, cioè nessuna se confrontati con le applicazioni reali! ;)


Non esagerare, Unreal è uno dei pochi giochi con una vracca di poligoni, altri invece non fanno alcuna differenza fra un 800Mhz e un 2600Mhz.
Considerando che tutti giocano al limite della fluidità, cioè in condizioni quasi sempre fill rate limited, come io, che non guadagno mezzo fps in quasi tutti i giochi salendo con la CPU. Questo perchè la scheda rallenta di brutto alle alte risoluzioni, e la cpu ha tutto il tempo di farsi trovare pronta.

BlackJack84
14-02-2003, 20:18
Non capisco una cosa... questo accanimento nel biasimare NVidia perchè improvvisamente rinnega la validità di 3DMark... che ha sì senso, ma solo fino a un certo punto.
Si è detto che questo cambiamento di tendenza l'ha fatto ora che la sua scheda di punta, tanto decantata prima della sua uscita stra-ritardata, le prende dal Radeon; io invece vedo che la rivalutazione della validità del 3DMark avviene nel momento in cui fa uscire dei driver con cui registra (e senza bassezze mi risulta) un assurdo +46% nelle prestazioni. Insomma quando dire che il 3DMark è tutto, per quanto falso, sarebbe per NVidia un buon colpo mandato a segno.
Ferma restando la delusione per un chip poco valido, quest'ultima notizia non mi sembra altro che un atto di onestà, che non cambia le carte in tavola, non certo una ragione per criticare ulteriormente NVidia.
Ma se è riuscita a sfornare dei driver tanto performanti col motore Max-FX, chi ci garantisce che non riesca a fare dei driver ottimizzati anche per gli altri motori? Insomma questa release di driver non mi è parso altro che un modo per dimostrare che col tempo l'FX potrà dimostrarsi non una delusione totale ma una mezza delusione e basta... e che per accorgersene occorrerà appunto del tempo, che non è che con questi driver l'NV30 è improvvisamente risorto tant'è che funzionano solo con il 3DMark. Insomma più che l'ennesimo meschino atto di marketing spregiudicato mi sembra una promessa di mettersi al lavoro per rimediare ai troppi errori fatti.

DjLode
14-02-2003, 20:27
Il fatto è che puoi vederla in entrambi i modi:
1- Ritorno sui propri passi per il fatto che in 3d mark la Fx è vicina alla 9700 ed è come un modo di togliersi dall'impiccio
2- Una promessa come dici tu.

Entrambe le cose sono vere per quanti mi riguarda, non sapendo quale delle due lo sia (come credo non lo sappia nessun altro), se poi uno vuole dare addosso ad Nvidia userà la prima, se invece vorrà "difenderla" userà la seconda. Punti di vista :)

BlackJack84
14-02-2003, 20:33
Lungi da me dal voler difendere un simile insuccesso contro l'evidenza. Ma anche nel criticare occorre giudizio, è troppo facile sparare a zero dalla folla. Ho solo detto "staremo a vedere"... se volessi fare la parte dell'NVidiot mi sarei appunto messo a dire che il 3DMark2003, test DirectX9, mette finalmente in luce la vera potenza dell'NV30, come si era detto sarebbe accaduto con le applicazioni Dx9... ma sarei un pagliaccio.
Mi sembra invece di essere stato neutrale... ;)

DjLode
14-02-2003, 20:37
Non ti ho accusato di niente :)
Ho solo detto che quello che dici è giusto ma può essere usato a favore o contro, quindi dipende da cosa uno vuole dire :)

Betha23
14-02-2003, 20:41
Originally posted by "DjLode"

Non ti ho accusato di niente :)
Ho solo detto che quello che dici è giusto ma può essere usato a favore o contro, quindi dipende da cosa uno vuole dire :)

Tutto è relativo! :) :D

BlackJack84
14-02-2003, 20:46
Chi vivrà vedrà... personalmente spero in una rivalutazione dell'FX, non tanto perchè tifoso NVidia (la Ti che ho è stato un ripiego per il mancato acquisto di una 8500 usata... e più di qualche volta me ne sono pentito) ma perchè senza NVidia a farle concorrenza Ati rischia di somigliarle sempre più... prezzi alti e qualità deludente. Per carità, non è la situazione attuale ma...

losqualobianco
14-02-2003, 20:47
Originally posted by "Betha23"

Insomma cagate il mio post su anand plz!!!!!!!!!! ;)

Ricordo ancora quei 3ad in cui alcuni dicevano che la geffo3 era DX8.0 e la geffo4 DX8.1 perchè così ci stava scritto sulla scatola.... ora le magagne vengono al pettine.

A mio avviso 3dmark2003 è stato impostato male. Non era il caso di mettere nel 2003 ancora un game dx7 (il primo) (ma sai il casino con tutte le geffo4mx ancora negli scaffali che nn fanno nemmeno partire il 3dmerd? ;) )
(e in questa scelta nn si può dire che madonion nn abbia dato una mano a nvidia)
Avrei preferito 2 game dx8 (uno 8.0 e l'altro 8.1) e gli altri 2 dx9 puri, poi la storia dei ps1.4 per quanto mi riguarda è un errore di nvidia quando ha fatto la geffo4 (li poteva implementare tranquillamente, così come nn ha mai sviluppato le n-patch (che in origine la geffo3 aveva)).

Non ho visto test specifici delle 8500/9100 vs 4200 ma penso che le 4200 siano ancora davanti nonostante i PS1.4 quindi IMHO nn è questo il problema

Il problema vero è che a differenza del 2001, nel 3dmark2003 TUTTI i test concorrono al punteggio penalizzando le sk nn dx9 (le geffo4 in primis)
Nel 3dmark2001 il test nature che nn era conteggiato nel punteggio permetteva alle geffo4mx di superare nel punteggio complessivo le 9000 anche se le geffo4mx (a differenza delle 9000) nn facevano il test.

Il problema è tutto qui, nvidia a tutt'oggi (negli scaffali) può offrire solo hardware di una generazione precedente e il 3dmark2003 la penalizza perchè utilizza nel calcolo del punteggio anche il test con le dx9 (mother nature che secondo me ha il ruscello più bello che abbia mai visto), questo nonostante nei games odierni DX8 una 4200 se la vede ad armi pari con una 9500pro (a filtri esclusi naturalmente, altrimenti ... :muro: )

Il PS1.4 è un falso problema, il vero problema per nvidia è che la 4200 col 3dmerd2003 sembra un rottame confrontata con una 9500liscia ma questo è un problema dovuto al ritardo del rilascio dell'NV30, 31 e 34 da parte di nvidia, (nn è colpa di madonion se nvidia perde tempo a overcloccare e overvoltare una scheda :D )

Betha23
14-02-2003, 20:54
Originally posted by "losqualobianco"



Ricordo ancora quei 3ad in cui alcuni dicevano che la geffo3 era DX8.0 e la geffo4 DX8.1 perchè così ci stava scritto sulla scatola.... ora le magagne vengono al pettine.

A mio avviso 3dmark2003 è stato impostato male. Non era il caso di mettere nel 2003 ancora un game dx7 (il primo) (ma sai il casino con tutte le geffo4mx ancora negli scaffali che nn fanno nemmeno partire il 3dmerd? ;) )
(e in questa scelta nn si può dire che madonion nn abbia dato una mano a nvidia)
Avrei preferito 2 game dx8 e gli altri 2 dx9 puri, poi la storia dei ps1.4 per quanto mi riguarda è un errore di nvidia quando ha fatto la geffo4 (li poteva implementare tranquillamente, così come nn ha mai sviluppato le n-patch (che in origine la geffo3 aveva)).

Non ho visto test specifici delle 8500/9100 vs 4200 ma penso che le 4200 siano ancora davanti nonostante i PS1.4 quindi IMHO nn è questo il problema

Il problema vero è che a differenza del 2001, nel 3dmark2003 TUTTI i test concorrono al punteggio penalizzando le sk nn dx9 (le geffo4 in primis)
Nel 3dmark2001 il test nature che nn era conteggiato nel punteggio permetteva alle geffo4mx di superare nel punteggio complessivo le 9000 anche se le geffo4mx (a differenza delle 9000) nn facevano il test.

Il problema è tutto qui, nvidia a tutt'oggi (negli scaffali) può offrire solo hardware di una generazione precedente e il 3dmark2003 la penalizza perchè utilizza nel calcolo del punteggio anche il test con le dx9 (mother nature che secondo me ha il ruscello più bello che abbia mai visto), questo nonostante nei games odierni DX8 una 4200 se la vede ad armi pari con una 9500pro (a filtri esclusi naturalmente, altrimenti ... :muro: )

Il PS1.4 è un falso problema, il vero problema per nvidia è che la 4200 col 3dmerd2003 sembra un rottame confrontata con una 9500liscia ma questo è un problema dovuto al ritardo del rilascio dell'NV30, 31 e 34 da parte di nvidia, (nn è colpa di madonion se nvidia perde tempo a overcloccare e overvoltare una scheda :D )

Ma ti sei pippato cocaina????!!! :eek: :eek:

Il 3DMark2001 fa la media di tutti e 4 i test!!!! Ecco perchè appunto el Mx440 sfigurano davanti alle Ti200 e R9000! Praticamente è il perfetto contrario di quello che hai detto!! :D

losqualobianco
14-02-2003, 21:01
Originally posted by "Betha23"



Ma ti sei pippato cocaina????!!! :eek: :eek:

Il 3DMark2001 fa la media di tutti e 4 i test!!!! Ecco perchè appunto el Mx440 sfigurano davanti alle Ti200 e R9000! Praticamente è il perfetto contrario di quello che hai detto!! :D

Betha hai bevuto? :D
Nel 2001 il test nature nn è mai entrato nel conteggio col risultato di trovare una sk dx7 come la geforce4 mx 440 davanti a una 9000 (nonostante quest'ultima faccia girare il nature e la mx no)

ti dò il link di hal2 ;) http://www6.tomshardware.com/graphic/20021218/vgacharts-05.html

devis
14-02-2003, 21:12
Originally posted by "losqualobianco"



Betha hai bevuto? :D
Nel 2001 il test nature nn è mai entrato

Entra entra ;)

3DMark score = (Game1LowDetail + Game2LowDetail + Game3LowDetail) * 10 + (Game1HighDetail + Game2HighDetail + Game3HighDetail + Game4) * 20

Betha23
14-02-2003, 21:13
Originally posted by "losqualobianco"



Betha hai bevuto? :D
Nel 2001 il test nature nn è mai entrato nel conteggio col risultato di trovare una sk dx7 come la geforce4 mx 440 davanti a una 9000 (nonostante quest'ultima faccia girare il nature e la mx no)

ti dò il link di hal2 ;) http://www6.tomshardware.com/graphic/20021218/vgacharts-05.html

Mi stai preoccupando! :eek: :eek: Mo chiamo attacca e gli dico di portarti in ospedale! :D

3DMark score = (Game1LowDetail + Game2LowDetail + Game3LowDetail) * 10 + (Game1HighDetail + Game2HighDetail + Game3HighDetail + Game4) * 20

Preso dalla guida di 3Dmark! Okkio a dire certe cose che in questo forum ti rinfacciano le stronzate che hai detot 2 anni fa! ;) (il forum non dimentica........brrrrr.. :muro: )

Milion
14-02-2003, 21:32
Il titolo è ad effetto, sono d'accordo che è fuorviante.
Sinceramente ne ho visti ben di peggio e ben di peggio ne continuerò a vedere, tuttavia capisco le obiezioni.

Io rimango discostato comunque dal titolo e in questo forse sbaglio. Non mi interessa particolarmente se i drivers che ha fatto nvidia siano cheattati o no...anzi non mi frega proprio per niente :)

Per quanto mi riguarda la polemica è contro nvidia e tom's e le loro patetiche giustificazioni sul perchè il 3dmark non è rappresentativo e balle varie.
Il 3dmark non è mai stato rappresentativo per quanto mi riguarda...a partire dalla versione 2000 e le voodoo5, oppure la 2001 e le kyro, trombate dal test ma più che ottime nei giochi.
Ma se tu dici di voler fare grasse risate Cs25 alle spalle di chi oggi vuol rivalutare il 3dmark solo perchè da torto a nvidia, allo stesso modo dovresti farti grasse risate per il modo in cui nvidia stessa usa ipocritamente le sue giustificazioni per screditare i risultati di quel test...quando le stesse giustificazioni sono perfettissime sia per il 3dmark2001 che per il 3kmark 2000 che invece erano suoi cavalli di battaglia nelle press relise e nelle pubblicazioni di marketing. Se invochi la coerenza non puoi che essere d'accordo con me :)

Ripeto non ho niente da dire per i drivers...usciranno recensioni e prove che ci diranno esattamente cosa hanno usato e se ne uscirà che nvidia ha usato un trucchetto alla quack si prenderà un'altra po di cacca addosso...ma per quanto mi riguarda stanno sbagliando alla grande su tutta la linea sia per quanto riguarda l'uscita della scheda sia per come annaspano intorno a problemi che, in parte, si creano da soli.

Vogliono costruire un test _oggettivo_ che usi ottimizzazioni proprietarie...ma zio cane :p

Milio

CS25
14-02-2003, 22:34
Originally posted by "Milion"

Io rimango discostato comunque dal titolo e in questo forse sbaglio. Non mi interessa particolarmente se i drivers che ha fatto nvidia siano cheattati o no...anzi non mi frega proprio per niente :)


E allora non accusare me di sviare il discorso, quando quello che lo svia sei tu :p
Niente di male, per carita', fatto sta che se vuoi affrontare un aspetto che non c'entra niente col soggetto, ma che cmq nell'insieme ci rientra, ti si viene dietro e si partecipa tranquillamente. Ma se fancedolo accusi me di sguisciare, mi scappa da ridere ;)


Ma se tu dici di voler fare grasse risate Cs25 alle spalle di chi oggi vuol rivalutare il 3dmark solo perchè da torto a nvidia, allo stesso modo dovresti farti grasse risate per il modo in cui nvidia stessa usa ipocritamente le sue giustificazioni per screditare i risultati di quel test...quando le stesse giustificazioni sono perfettissime sia per il 3dmark2001 che per il 3kmark 2000 che invece erano suoi cavalli di battaglia nelle press relise e nelle pubblicazioni di marketing. Se invochi la coerenza non puoi che essere d'accordo con me :)


Ed infatti sono perfettamente d'accordo, del resto ho scritto bello chiaro che usero' tranquillamente il 3dmark2003 come test in barba a quello che dice Nvidia.
Tra l'altro se andiamo a guardare nello specifico, il gffx spicca qualche punto percentuale di differenza in piu' nel 3dmark2003 piuttosto che nel 2001, quindi non credo che il loro cruccio fosse solo di immagine. Di sicuro hanno litigato con Futuremark e ora gli fanno i dispetti :eek:
Riguardo le quackate, hanno gia' dimostrato che la cosa non da' alcun vantaggio (a meno di considerare 2 fps un vantaggio, nell'unico test in cui valgono 3 banane).

In finale, io credo che Nvidia volesse un supporto BEYOND dx9, per andare incontro alle maggiori specifiche che ha il gffx rispetto alle altre (all'altra) scheda dx9 del momento.
E' sicuramente troppo presto per pretendere una cosa del genere, non esiste NIENTE dx9, figuriamoci il BEYOND dx9 a cosa possa servire, ma fughiamo per cortesia le ipotesi da fantascienza su "ottimizzazioni proprietarie" : per come Worm ha descritto l'appena nato 3dmark, esso si appoggia esclusivamente sulle dx9 senza ricorrere alle scorciatoie permesse dalle singole ottimizzazioni, quindi non credo che Nvidia pretendesse di avere l'esclusivo supporto per la sua gffx... a meno che non si siano fumati un baobab :D
Il 3dmark2001 e' stato aggiornato alle specifiche dx8.1 ed ha aggiunto il test "advanced pixel shader".... DOMANDA : secondo voi chi avra' mai spinto per introdurlo, se non Ati? Nvidia non aveva alcun interesse :D
Solo che mentre all'epoca le DX8.1 erano una realta', ipotetiche dx9.1 sono ancora fantascienza.

In finale, faccio presente, come ha fatto notare Tom (una delle poche cose sensate che gli ho visto dire ultimamente), che la maggior parte dei giochi che usano PS seguono le 1.1 e le 1.3. Le 1.4 sono utilizzate da un numero di giochi infimo, tra i quali mi viene in mente SOLO unreal 2. Se all'alba del 2003 ancora non sfruttano a fondo le specifiche dx8.1, si capisce ancora di piu' perche' futuremark nel 3dmark2003 abbia messo un test dx7, 2 test dx8 e un test "quasi" dx9 :)
Stiamo confrontando le schede video su un benchmark che in pratica sovraccarica al massimo il dx8 portandolo al suo estremo, e che abbozza appena il dx9... non credo sia un banco di prova adeguato per gffx e radeon9700pro, ma almeno e' un inizio.

Usero' il 3dmark2003 perche' lo trovo comodo e lo considero "UNO DEI" test che si dovrebbero eseguire per avere un'idea su una scheda video, non lo considero pero' una bibbia :)

pandyno
14-02-2003, 22:47
Beh in effetti il titolo non è molto azzeccato, ma come al solito andavo di fretta, la mia giustificazione è che ho riportato la notizia tale e quale! :D
Di 3dmark non me ne puo' fregare di meno, una kyroII è ancora un' ottima scheda, una V5 pure, scheda che al 3dmark2001 fa la bellezza di 2500 e che ci si gioca con U2 dettagli alti non so' se rendo.

Quello che mi premeva è il fatto che nvidia abbia fatto marcia indietro SOLO ORA! :eek: ma siamo scemi?

beh il resto l' ho ripetuto tante volte ;)

losqualobianco
14-02-2003, 23:53
Originally posted by "losqualobianco"



Betha hai bevuto? :D
....



gnam gnam ... mi rimangio quello che ho scritto :D

pandyno
15-02-2003, 00:17
LOL squalo che mi combini? :D

severance
15-02-2003, 01:16
secondo me nvidia, che ha sempre promosso il 3dmark 2001 come un punto fermo di valutazione delle proprie skede, ora lo rinnega per questo motivo:
http://www.hardocp.com/images/articles/1044928685ymTd7LNuhM_4_4_l.gif

notare quante mazzate prende nel test pixel shader 2.0.

nonostante il punteggio sia superiore (non parlo di cheat, non posto in risposta a questo), e proprio nelle nuove feature che nvidia perde.[/siz]

loro che han pubblicizzato tanto il supporto delle dx 9 e oltre ora cadono nel normalissimo pixel shader 2.0? :D

cs25, qui c'e solo da piangere, io SCREDITO nvidia solo perche scredita il 3dmark solo quando perde.

gli ha sempre fatto comodo pero fino al 2001, dove era avanti no?

riguardo al cheat non metto parola finche non e certificata la cosa.
comunque da quando ha rilasciato il comunicato sull inattendibilita del 3dmark 2003 come test secondo me ha avuto una grossa caduta di stile e ai miei occhi non si rialzera piu
:rolleyes:

scommettiamo che con l uscita dell nv40 il 3dmark 2004 sara il banco di prova perfetto? :D

:rolleyes:

CS25
15-02-2003, 03:38
Boh, a 1600x1200 c'e' una differenza piu' marcata, laddove il gffx doveva essere sfavorito sulla carta per questioni di banda... in realta' io vedo la nuova scheda nvidia avere prestazioni al livello del gf4 in pixel e vertex shader, il che onestamente non si spiega...
C'e' veramente molto da lavorare sui driver per giustificare il prezzo del NV30, una volta raggiunga la qualita' e la velocita' necessarie, fara' bene a migliorare ulteriormente visto che c'e' l'R350 alle porte.

checo
15-02-2003, 11:45
speriamo non sia il motore fallato, sennò sono cazzi.

cmq si può solo aspettare.

so che lo avete già detto, ma non mi sembrano driver cheat, sono pompati, ma i cheat sono altre cose(chi ha detto quake3??? :D:D )

fek
15-02-2003, 13:19
Originally posted by "Milion"


Per la cronaca non mi ricordo più le caratteristiche dei ps, ma ricordo ancora che la vera rivoluzione sono stati i ps 1.4, in quanto le necessità elaborative dei 1.1 e dei 1.3 erano praticamente identiche. Solo i ps 1.4 permettevano di fare più cose con una sola passata....ma prendete col beneficio di inventario questa cosa perchè non ricordo e non ho tempo di andare a cercare. Magari se qualcuno che ne capisce più di me sui ps ci da un parere ne potremmo sapere di più ancora :)
Milio

E' vero quello che hai scritto. I ps 1.4 hanno introdotto un paradigma "risc" nell'assembly dei pixel shader.

pandyno
15-02-2003, 17:08
Linko e aggiorno il titolo ;)


Dopo nemmeno 24 ore dal rilascio del nuovo benchmark 3DMark 2003 di Futuremark, NVIDIA ha rilasciato un documento chiamato "Performance Lab Report - 3DMark 2003 Game Tests", nel quale afferma che 3DMark 2003 non è un buon metro di valutazione delle prestazioni delle schede grafiche, in quanto adotta un approccio troppo "semplicistico", e non ricrea le reali condizioni di gioco dei videogame sul mercato.

Sarà un caso, ma questa dichiarazione arriva subito dopo la pubblicazione dei primi risultati di test eseguiti con 3DMark 2003, in cui l`ultimo chip di NVIDIA, il GeForce FX (o NV30), non riesce a tenere testa al Radeon 9700 Pro di ATi, nonostante il rilascio di un nuovo set di driver Detonator, che sembra essere ottimizzato per migliorare le prestazioni soprattutto con 3DMark 2003.

NVIDIA ha ragione? Crediamo che la risposta sia decisamente si; abbiamo sempre ripetuto che un solo test, per quanto accurato, non potrà mai dare risposte definitive sulle reali prestazioni di un prodotto; questo discorso è ancora più valido quando si parla di test che nascono come tali (e non sono costituiti da applicazioni reali), proprio come 3DMark (che nonostante il nome, e nonostante lo slogan "The gamer`s benchmark", non si può ritenere attendibile al 100%). L`unico scopo di 3DMark è quello di creare ambienti "virtuali", e dare l`idea delle potenzialità dei moderni chip grafici, oltre a dare indicazioni sulle prestazioni di un prodotto, tra gli scopi di 3DMark non vi è quello di ricreare le condizioni esistenti in altri videogame; si è sempre discusso sull`effettiva attendibilità di questo test come test fine a sé stesso (senza entrare nel merito della similitudine o meno con giochi esistenti).

Nonostante le motivazioni non siano campate in aria, quella di NVIDIA ci appare come una mossa per "salvare il salvabile", oltre che una caduta di stile, screditando quello che si annuncia come uno dei benchmark più utilizzati dei prossimi mesi solo perché non dà i risultati sperati con il GeForce FX, e rischia di mandare all`aria tutta la strategia di marketing preparata finora.

Questo tipo di critica (" 3DMark utilizza un approccio semplicistico") non ha basi solide in quanto anche ATi potrebbe affermare lo stesso.

Una critica più dura potrebbe riguardare una miglior ottimizzazione del codice per i chip ATi, o l`utilizzo di funzioni meglio implementate sui chip ATi (così come AMD criticò Bapco per aver incluso in SysMark 2002 dei test che, a detta di AMD, penalizzavano gli Athlon XP), tuttavia sembra che questo non sia il caso di 3DMark, e comunque sarebbe estremamente difficile da dimostrare...

Ricordiamo inoltre che negli anni passati NVIDIA è stata un`accanita sostenitrice di 3DMark, soprattutto ai tempi di 3DMark 2000, uno dei primi software a sfruttare il motore T&L integrato nel chip GeForce 256 (NV10) di NVIDIA, e fu proprio questa ostentazione dei risultati ottenuti dai chip NVIDIA con 3DMark a creare perplessità nel mercato sulle reali potenzialità dei prodotti concorrenti, ed a decretare in gran parte il successo della strategia di NVIDIA.

Probabilmente questo documento di NVIDIA non avrebbe mai visto la luce se il GeForce FX sarebbe stato più veloce del Radeon 9700 Pro in 3DMark 2003.

Purtroppo questi "voltafaccia" sono frequentissimi ai giorni nostri e lasciano il tempo che trovano; in definitiva non bisogna dare troppo peso a queste polemiche (insieme a non ostentare o denigrare un benchmark), anche perché le prestazioni vanno valutate con software "reale": non vi preoccupate del punteggio di 3DMark (nel bene e nel male), ma preoccupatevi piuttosto delle prestazioni che un prodotto vi offre con un`applicazione che utilizzate nella realtà.

Siamo in grado di riportarvi per intero il testo del "documento" di NVIDIA:

http://www.hardwareirc.com/shownews.asp?ID=7921

Milion
15-02-2003, 17:09
Originally posted by "CS25"



E allora non accusare me di sviare il discorso, quando quello che lo svia sei tu :p
Niente di male, per carita', fatto sta che se vuoi affrontare un aspetto che non c'entra niente col soggetto, ma che cmq nell'insieme ci rientra, ti si viene dietro e si partecipa tranquillamente. Ma se fancedolo accusi me di sguisciare, mi scappa da ridere ;)


Ma non accusavo di niente dai.
Ti invitavo a tenere gli occhi sulla palla riguardo al mio discorso, non era mica un rimprovero. Del resto era chiaro fin dall'inizio quello che stavo dicendo senza l'obbligo di doverlo specificare, e quello che stavo dicendo non c'entrava niente coi drivers cheat :) E' la discussione che si stava evolvendo in quel modo non perfettamente lineare al topic.

Originally posted by "CS25"



Il 3dmark2001 e' stato aggiornato alle specifiche dx8.1 ed ha aggiunto il test "advanced pixel shader".... DOMANDA : secondo voi chi avra' mai spinto per introdurlo, se non Ati? Nvidia non aveva alcun interesse :D
Solo che mentre all'epoca le DX8.1 erano una realta', ipotetiche dx9.1 sono ancora fantascienza.


Non credo c'entri niente ati invece. Prima sono uscite le dx 8 e il ps 1.3, poi le directx 8.1 e il ps 1.4.
Il 3dmark è stato semplicemente aggiornato mi pare.
E non ho nemmeno chiaro il motivo per cui le geforce riescano a far girare il ps 1.4 (se è questo che hanno usato nell'advance pixel shader) visto che non supportano questa feature. Magari è proprio in questo che la madonion ha invece avvantaggiato nvidia permettendo al suo ps 1.3 di fare in più passate quello che il ps 1.4 fa in meno.
Ma è stata la stessa nvidia a voler a tutti i costi scrivere sulle scatole del geforce "full dx 8.1 compliant" che sai benissimo essere una cazzata: se ora i nodi gli vengono al pettine sai come si dice...chi è causa del suo male pianga se stesso :)
Nvidia non ha pudore e se leggi la gran parte dei messaggi è questa la maggiore accusa che riceve.
Come è stato già detto, anche da te, se il geforce fx fosse stato un prodotto di trident (ad esempio) sarebbe stato uno dei massimi successi di pubblico di tutti i tempi. Ma trident non si è creata la stessa immagine (negativa) di nvidia nella percezione degli utenti (bada...immagine di impresa e non di prodotto) e con il comportamento che tiene non fa che peggiorare.

Originally posted by "CS25"


In finale, faccio presente, come ha fatto notare Tom (una delle poche cose sensate che gli ho visto dire ultimamente), che la maggior parte dei giochi che usano PS seguono le 1.1 e le 1.3. Le 1.4 sono utilizzate da un numero di giochi infimo, tra i quali mi viene in mente SOLO unreal 2. Se all'alba del 2003 ancora non sfruttano a fondo le specifiche dx8.1, si capisce ancora di piu' perche' futuremark nel 3dmark2003 abbia messo un test dx7, 2 test dx8 e un test "quasi" dx9 :)
Stiamo confrontando le schede video su un benchmark che in pratica sovraccarica al massimo il dx8 portandolo al suo estremo, e che abbozza appena il dx9... non credo sia un banco di prova adeguato per gffx e radeon9700pro, ma almeno e' un inizio.

Usero' il 3dmark2003 perche' lo trovo comodo e lo considero "UNO DEI" test che si dovrebbero eseguire per avere un'idea su una scheda video, non lo considero pero' una bibbia :)

Niente da dire...3dmark non è mai stato IL test come molti (e la stessa nvidia finche gli ha fatto comodo) hanno pensato o magari pensano. Ma è sempre stato così fin dal 3dmark 2000 e questo 3dmark 03 non ha valore diverso o non giace a considerazioni diverse da quelle che avremmo potuto fare ai loro tempi per i suoi predecessori.

Chiudo il replay con una riflessione.
Dicevo all'uscita della geforce 4 4200 che ci sarebbe potuta essere una parte di utenza per la quale sarebbe risultata comunque più conveniente, a parità di costo, una 8500. Questa mia affermazione suscitò alcune critiche perchè mi si contestava la mia opinione per la quale la 8500 e il suo ps 1.4 sarebbe potuta essere più longeva della gf4 proprio in virtù del pieno supporto alle dx 8.1.
Riconoscevo comunque l'improbabilità della implementazione del ps 1.4 da parte delle softwarehouse in presenza di una marca diffusa come nvidia che aveva deciso di non supportarlo (chi programmerebbe mai un videogioco che non gira sulla maggior parte delle schede in commercio? oppure chi programmerebbe un videogioco inserendo un codice particolare solo a favore di una ristretta cerchia di utenti, in questo caso i possessori di radeon 8500).
Ora già sono uscite le polemiche sul ps 1.4 usato in un test, nemmeno in un gioco... e questo avviene in un contesto in cui le prospettive di mercato sono ben diverse da quelle che c'erano 1 anno fa di questi tempi.
Che succede se le softwarehouse cominciano ad implementare il ps 1.4? :)

Lo scenario di breve periodo non mi è chiaro affatto, ma ho idea che sarà molto interessante da seguire...anche per vedere le mosse dei contendenti in campo.

Milio

pg08x
15-02-2003, 17:41
Che grandissimi bastardi !
Prendersala con un bench solo perchè imparziale :mad:

Su un altro sito ho letto che avrebbero voluto PAGARE :mad: quelli di futurmark per fare delle ottimizzazioni in quanto nvidia è beta tester o che so altro...

Poi la cosa bella è che sono abilissimi a mettere tutto a tacere

Cifer
15-02-2003, 17:44
Originally posted by "Betha23"



Ahhhhhhh un provinciale! :D Skerzo io di villa pamphili! ;)

Allora la prossima volta che litighiamo scendo sotto casa e ti pisto!
:D
Naturalmente scherzo, cavolo siamo nel raggio di pochi metri, io Villa Carpegna...

pg08x
15-02-2003, 17:48
... rendering rendering any explosions, and :mad: missing other effects :mad:
non sono solo le esplosioni del primo gioco a mancare a quanto pare.

halduemilauno
15-02-2003, 17:50
Originally posted by "pg08x"

Che grandissimi bastardi !
Prendersala con un bench solo perchè imparziale :mad:

Su un altro sito ho letto che avrebbero voluto PAGARE :mad: quelli di futurmark per fare delle ottimizzazioni in quanto nvidia è beta tester o che so altro...

Poi la cosa bella è che sono abilissimi a mettere tutto a tacere


se è imparziale perchè non prendersela.
pensa io su un altro forum ho letto il contrario.cioè è stata futurmark a chiedere soldi ad nVidia e quest'ultima a quel punto se ne è andata.
bah.

pg08x
15-02-2003, 17:59
Ho indagato meglio, pare i test dove la gfx ha avuto miglioramenti non presentino artefatti o mancati rendering...
probabilmente la prima versione dei driver aveva semplicemente dei problemi prestazionali col 3dmark 03, problemi che ora sono stati risolti.

losqualobianco
15-02-2003, 18:13
Posto per dire che non sono un esperto di 3dmark (e si è visto :D )

Nel 3d2003 penso che quello che abbia fatto arrabbiare nvidia siano i bench dove (inspiegabilmente) la 9500liscia nn overcloccata se la gioca nel primo test DX7 con la 4200, nel secondo e nel terzo DX8.1 supera la 4600 :confused: e poi fa il quarto DX9 che le geffo4 nn possono fare (facendo il pieno di punti).
Per una scheda che costa all'incirca come una 4200 8x di marca è un bel risultato e di colpo fa invecchiare tutte le geffo4 (e sono tante) in vendita.

Immagginate di voler comprare una scheda video di fascia media oggi; preferite prendere una creative 4200 a 210€ o una sapphire 9500liscia a 240€? (io la 9500pro e mi tengo sicure 8 pipeline ;) ). La 9500liscia è superovercloccabile, a 360MHz tiene testa alle 4200 nei giochi odierni e nel 3dmark2003 fa tutti i test e straccia le 4600 anche senza overcloccarla.

Questo secondo me è il vero problema del 3dmark2003 x nVidia, e non l'nv30 che (al di là dei PS2.0) supera la 9700pro nel 3dmark.
Il ritardo dell'nv30 si riperquote nell'nv31 e nvidia si trova le geffo4 invecchiate tutte d'un colpo con un programma di bench....

Quando si dice la nemesi ...
nel 3dmark2000 una geffo stracciava una voodoo5 perchè quest'ultima non aveva il T&L (che nessun gioco allora utilizzava ma che madonion aveva ugualmente inserito (standard DX7)). Poi i giochi giravano senza problemi sulla voodoo5 ma quest'ultima nn era fullDX7 ed è stata troncata.

Ora madonion ha inserito 2 test fullDX8.1 che ha evidenziato il ritardo tecnologico di nvidia (sui prodotti in vendita oggi) come nel 2000 era per 3dfx (feature nn utilizzate da nessun gioco all'uscita del 3dmerd ma che poi sono state implementate nei giochi successivamente). Chi sa se Unreal2 usa i PS1.4?

losqualobianco
15-02-2003, 18:15
questo è il risultato del 3° test, notate come la 9500liscia superi la 4600.

Con un nv30 costosissimo (e pochi esemplari da vendere), una 9500liscia che con il 3dmerd2003 può erodere pesantemente la quota delle geffo4 e con le 9000/9100 che fanno 3 test su 4 a erodere la quota delle geffo2mx (che fa solo il primo), ci credo che nVidia si sia inc@zz@t@ con il 3dmerd2003...

Il 3dmark che dovrebbe essere utilizzato solo per mettere a punto la propria scheda (cambio settaggi, prova di nuovi driver, ecc.) è stato utilizzato (erroneamente) in passato da nVidia per publiccizzare la superiorità (tecnologica) delle proprie schede rispetto alla concorrenza.

Ora che moltissimi utilizzano (erroneamente) il 3dmark per confrontare schede diverse, come un boomerang ritorna sulla testa di nVidia con il nome di 3dmark2003 distruggendoli i prodotti che sta vendendo oggi!

Non vorrei ma lo faccio ugualmente : il parallelo con i prodotti di 3dfx validi nei giochi ma nn altrettanto nel 3dmark2000 è impressionante :rolleyes:

pandyno
15-02-2003, 18:31
La 9500 liscia (la mia) a 3dmark2003 clockata a 400/300 fa gli stessi punti della 9700liscia (nel mio sistema)
Cmq voglio fare qualche prova tanto per confrontare con questi risultati

pandyno
15-02-2003, 19:06
Dunque credo di essere CPU limited :confused:
Nel primo game passo da 96 a 100fps scarsi
Nel game 3 con la scheda OC arrivo a 20.5 lo stesso valore della 9500pro, ora nn posso OC il processore a causa dell' alimentatore.
Cmq moddata a 9700 ho gli stessi risultati quindi mi pare strano :confused: non era svincolato dalla CPU questo 3dmark? :confused:

provo a 1280x1024 vediamo.

aggiornamento: 85,5 e 13,5 9500@400/300 1700+ non OC

losqualobianco
15-02-2003, 23:57
trovate tutto qui http://www.futuremark.com/companyinfo/Response_to_3DMark03_discussion.pdf

un sunto

Futuremark’s recommendation has always been that default WHQL certified drivers should be used for
benchmarking purposes. This is because any specific driver tuning might produce results that are not
genuinely comparable. According to 3DMark03 license agreement, any review to be published has to
use generally available, shipping versions of products and drivers.

Mi piace quella del generally available driver e shipping version of product, come a dire la FX nn la state ancora vendendo e quindi nn è nemmeno da testare, men che meno con driver non whql o cmq nn facilmente disponibili.

In ogni modo nel documento ci sono altre cose più interessanti

Vifani
16-02-2003, 00:46
Io non capisco perché state discutendo così animatamente per una cosa che alla fine non dipende da voi.

Nel documento rilasciato da Futuremark viene spiegato con grande chiarezza perché hanno usato in alcuni test per DirectX 9 i Pixel Shader 1.4: queste parti non richiedevano la potenza dei Pixel Shader 2.0 ed hanno deciso di supportarle attraverso la versione più recente fino ad ora disponibile dei Pixel Shader, ovvero la versione 1.4 o, in più passate, la versione 1.1.

Se poi i giochi usano o meno i Pixel Shader 1.4 è del tutto irrilevante. Da sempre ho sostenuto che il 3DMark non è mai stato un indice di giocabilità, cioè non ha mai detto come vanno i giochi, ma è soltanto un ambiente di comparazione tra prodotti in certe specifiche situazioni. Se le GeForce 4 Ti vanno peggio anche della 9500 è perché quest'ultima è tecnologicamente più avanzata il che non significa che nei giochi è più veloce, ma nel benchmark comunque lo è.

La realtà ragazzi è che nVidia si sta lamentando solo di se stessa e dei ritardi che ha avuto. Se NV30 fosse uscito nei tempi previsti senza i ritardi dovuti a TSMC, adesso avrebbe già fatto uscire NV31 e sicuramente non si sarebbe lamentata dei risultati. Adesso il GeForce FX ancora non c'è sul mercato, probabilmente non arriverà mai in volumi, e si ritrova con una flotta di schede che è tecnologicamente meno evoluta della concorrenza.

Il 3DMark 2001 all'epoca fece schizzare in alto il punteggio delle GeForce 3 rispetto alle GeForce 2 Ultra nonostante queste ultime, almeno con le prime release dei driver per GF3, andassero veloci quanto NV20 nei giochi. Del resto era l'epoca in cui erano ancora pochi i giochi che usavano il T&L delle DX7. Quando si usa il 3DMark è soprattutto una questione di supporto tecnologico (che ti consente di effettuare tutti i test) ed in secondo luogo di potenza di calcolo. Ecco perché le GeForce 4 Ti ci escono con la coda tra le gambe.

Inoltre ritengo che se il GeForce FX offre prestazioni non eccelse nei singoli test dei VS 2.0 e PS 2.0 in comparazione ad R300 e se la stessa situazione si ripete con Doom III usando la libreria universale (ARB2), mi sembra evidente che l'architettura di questo prodotto richiede una specifica ottimizzazione per funzionare a dovere. Futuremark è tenuta a supportare le DirectX 9, non ad ottimizzare la cosa per un chip grafico. E' nVidia a doversi adattare agli standard, non i programmatori ai suoi prodotti. Queste cose se le poteva permettere 3dfx all'epoca delle Glide perché è stata la prima. Adesso non si possono fare più e del resto i risultati sono quelli che sono.

giruz
16-02-2003, 00:50
grande vifani!

concordo su tutta la linea

ciao

g.

-=Krynn=-
16-02-2003, 09:27
pure io.

Che Nvidia si attenga agfli standard.

E' facile dire che la propria scheda non va perchè non è stata ottimizzata, se te mi richiedi un codice specifico io in un programa imparziale non te lo metto.

Detto questo, abbasso il 3dcazz....

Psiche
16-02-2003, 10:30
E' probabile che sia già stato postato e perciò mi è sfuggito ; in tal caso correggetemi :)

A questo link trovate la risposta di Ati e Futuremark rispetto a quanto affermato da nVidia:
ATi and Futuremark's Response to NVIDIA's Report
(http://hwextreme.com/reviews/misc/3dresponse)

;)

pandyno
16-02-2003, 13:59
No psiche non era stato postato grazie ;)

ATi's Response

ATi and Futuremark both have their own interesting perspectives on NVIDIA's Lab Report. With all the criticism to the the 3DMark03 benchmark program, each party is already voicing out their own points of view. In response to NVIDIA's claim that the 3DMark03 software is lacking any similarity to actual games, it misrepresents the gaming experience, leading consumers to errant conclusions, a spokesman from ATi said:

"In the first test (Wings of Fury) nVidia says its not a realistic representation of a game and they post a screen grab that shows a bunch of small planes in the distance. Lots of holes in that (e.g. there are lots of games like that, and that's a very biased screenshot!), but hold onto the basic point that the tests should represent games realistically."

In the NVIDIA's Lab Report, NVIDIA stated that only two of the pixel shaders are the new ps2.0 while seven others are still from DirectX8 and that is not enough to represent the new DirectX 9.0. Below is a quote from the Lab Report:

"This year’s 3DMark has a new nature scene. It is intended to represent the new DirectX 9.0 (DX9) applications targeted for release this year. The key issue with this game scene is that it is barely DX9. Seven of the nine pixel shaders in this test are still ps1.4 from DX8. The same issues about ps1.4 shaders described above apply here. Only two of the pixel shaders are the new ps2.0. Consumers believing that this test gives a strong look at the future of games will find it merely provides a brief glimpse, if at all."

In reponse to the above statement, ATi said,

"In the final test only two of the nine shaders are full v2.0 shaders. Games developers won't use v2.0 shaders on everything just because they can. They'll use whatever shader gets the job done to the required quality the fastest. So v2.0 does a beautiful job of the water but would be massive overkill for most of the other features in the scene."

The ATi guys have much more to say but for the mean time, above is their response to the game tests and they definitely do not agree with what NVIDIA had posted. We will get more facts and details later.

Several questions have also arised after NVIDIA posted the optimized drivers for the Press members:

Isn't these "optimized" drivers consider as "cheating" for 3DMark? They sacrifices image quality for the improved performance.
Why NVIDIA is releasing optimized drivers that doesn't give any extra performance for any other applications or games, but just for the improved score in 3DMark03?
Isn't this the same 'Quake/Quack' issue with ATi a few years back?
What is NVIDIA's motive for releasing optimized drivers for the Press?
I know each and everyone of you have alot to say about this matter. I have setup a thread in the Hard|Forums for you to discuss this matter further. Please feel free to post your opinions, comments or suggestions.

Futuremark’s Response to 3DMark®03 Discussion

Futuremark's Executive Vice President of Sales and Marketing sent us their official PDF Report detailing their response to criticism of the new 3DMark03 benchmark. Below is a copy of the report:

Author :Tero Sarkkinen
Executive Vice President, Sales & Marketing
Tel: +1-408-517-0131
Fax: +1-408-517-9119

3DMark®03 launch has been a great success and it has been received enthusiastically by the computer industry worldwide. There is active discussion about the product. We have analyzed the concerns that have been raised and found that many of those are without merit. In this document, we review the key facts of 3DMark03.

Synthetic Benchmark Versus Games as Benchmarks

3DMark03 is a synthetic benchmark that is designed for the sole purpose of enabling objective performance measurement of DirectX® 9 compatible hardware today. There are no other significant DirectX 9 applications published yet, and the most awaited DirectX 9 game is most likely at least six months away. 3DMark03 is a forward-looking tool that provides unique value to consumers in the form of impartial information to support their purchasing decisions today.

We continue to recommend to independent testers to complement their analysis by using published games in measuring performance. However, it has to be noted that those results are valid only for that game, whereas 3DMark03 can provide a forward-looking overall view of the performance and features of the hardware.

Additionally, benchmarks in games have not necessarily been created with the same diligence and attention to detail that Futuremark puts into ensuring the benchmark's independence and reliability. Games may contain specifically created code paths for different vendors' products; either for marketing or application compatibility reasons, invalidating at least the generalization of measured results to other games. Well-built synthetic benchmarks measure computer hardware performance within a specific usage area in an impartial way. Only good synthetic benchmarks enable true apples to apples comparisons. 3DMark03 fulfills both criteria.

Our recommendations for correct benchmarking are the following:

Use game benchmarks when you want to find out how fast a certain game runs on your computer;
Use 3DMark2001 for a comparable overall performance measurement of DirectX 7 or first generation DirectX 8 compatible hardware;
Use 3DMark03 for a comparable overall performance measurement of DirectX 9 compatible hardware
Driver Optimization

A concern has been expressed, that synthetic benchmarks force hardware manufacturers to optimize drivers for that specific benchmark. Futuremark’s recommendation has always been that default WHQL certified drivers should be used for benchmarking purposes. This is because any specific driver tuning might produce results that are not genuinely comparable. According to 3DMark03 license agreement, any review to be published has to use generally available, shipping versions of products and drivers. Furthermore, 3DMark03 includes advanced analytical tools to enable independent observers to catch any potential questionable driver optimizations. By taking a tough stance against any kind of driver optimization, the media can discourage this practice.

Why Does Game Test 1 Not Use Multitexturing for All Visible Surfaces?

The use of single texturing in game test 1 has been criticized. It is claimed that the test does not measure DirectX 7 generation game performance. Just like game developers, Futuremark develops its game test content so that the end result looks good and works optimally. Most games use single texturing for a skybox because more texturing does not necessarily make the end result look better. Examples of popular games that use single-textured skybox include Crimson Skies, IL-2 Sturmovik, and Star Trek: Bridge Commander. As this issue was brought up already during 3DMark03 development, we did a test by adding a second texture layer to the skybox. The performance difference stayed within the error margin (3%), and in our opinion the additional layer did not significantly add to the visual quality of the test. Thus, there were no game development or technical justifications for implementing a multitextured skybox.

We would like to refer to our white paper about this test: “This test is not meant as a definitive evaluation of DirectX 7. It is not designed to give the average performance of DirectX 7 3D graphics usage. Typical DirectX 7 games use fixed vertex processing, whereas this game test uses 1.1 vertex shaders. We believe this is the future of vertex processing on both graphics cards and CPUs. The overall goal of game test 1 is to complete the collection of the four game tests as a test that can run on DirectX 7 hardware and one that requires a lower fill-rate. To fully evaluate DirectX 7 performance, the previous version of the benchmark, 3DMark2001 SE, is more appropriate.” It is important to note, that our Beta members suggested and supported the integration of a DirectX 7 compatible test in 3DMark03.

Why Do Game Tests 2 And 3 in 3DMark03 Only Use Pixel Shader 1.4 or 1.1?

According to the DirectX 8 specification, there are 4 different pixel shader models. In order to do a fair benchmark, you want any hardware to do the minimum number of shader passes necessary to render the desired scene. We analyzed all 4 shader models and found that for our tests Pixel Shader 1.2 and Pixel Shader 1.3 did not provide any additional capabilities or performance over Pixel Shader 1.1. Therefore we provided two code paths in order to allow for the broadest compatibility.

A good 3D benchmark must display the exact same output on each piece of hardware with the most efficient methods supported. If a given hardware supports pixel shader 1.4, like all DirectX 9 level hardware does, then that hardware will perform better in these tests, since it needs less rendering passes. Additionally, 1.4 shaders allow each texture to be read twice (total 4 texture lookups in 1.1, but 12 (=6*2) in 1.4 shaders). This is why, not only Futuremark, but also game developers can only implement single pass per light rendering using a 1.4 pixel shader, and not using a 1.3 or lower pixel shader. A 2.0 pixel shader would not have brought any advantages to these tests either. Note that the DirectX design requires that each new shader model is a superset of the prior shader models. Therefore all DirectX 9 hardware not only supports pixel shader 2.0, but also Pixel Shader 1.4, 1.3, 1.2, and 1.1.

Game Tests 2 And 3 Use Same Rendering Technique

The validity of the results is being questioned due to the fact that game tests 2 and 3 use the same rendering technique. 3DMark03 incorporates as many as three rendering techniques, whereas games use only one rendering technique. Our studies show that using three rendering techniques is more than adequate for producing valid results.

Why Is the Vertex Shader Skinning Used Instead of a CPU Skinning?

It has been alleged, that there is a design flaw in the code related to skinning the characters multiple times with the hardware vertex shader. It is an erroneous allegation and an invalid argument based on the following facts. 3DMark03 is designed to measure DirectX 9 compatible hardware. This level of hardware does skinning several times faster than the CPU. This can be confirmed using the vertex shader test of 3DMark03, which is designed to measure above all skinning speed. CPU vs. vertex shader skinning can easily be compared by running this test with and without software forced vertex shaders. For example, a DirectX 9 graphics card and high-end CPU (ATI Radeon 9700 Pro and Intel Pentium4 3 GHz) gets five times lower frame rates with CPU skinning than with hardware accelerated vertex skinning. An older CPU (Intel PentiumIII 800 MHz) skins more than 20 times slower on the CPU than with the hardware acceleration. Only first generation DirectX 8 hardware is likely to benefit from CPU skinning, since the vertex shader performance advantage of those cards, as compared to the CPU skinning speed, is smaller. Then again, first generation DirectX 8 hardware should rather be benchmarked using 3DMark2001 SE. Since each light is performance-wise expensive, game developers have level designs optimized so that as few lights as possible are used concurrently on one character. Following this practice, 3DMark03 sometimes uses as many as two lights that reach a character concurrently, not five as mentioned in some instances. Thus, vertex shader skinning will be more efficient than CPU skinning on well-programmed DirectX 9 games on DirectX 9 level of hardware. We believe that rational game developers will opt for vertex shader skinning in forthcoming DirectX 9 games.

Does this mean that 3DMark03 is now completely bottlenecked by the vertex shader performance? No it
does not. Try running 3DMark03 in different resolutions. If the benchmark was vertex shader limited, you would get the same score on all runs, since the amount of vertex shader work remains the same despite the resolution change. Game tests 2 and 3 scale very well with the resolution, and are thereby mostly pixel shader limited. Changing the skinning to the CPU would reduce the vertex shader workload, making 3DMark even more bottlenecked by pixel shader performance. We did some simple experiments with this rendering technique and CPU vs. vertex shader skinning. The test results did not change much at all, the overall performance only dropped somewhat using CPU skinning. This was to be expected, looking at the difference in skinning speed between the CPU and the hardware vertex shader.

Why the Game Test 4 Does Not Use All Existing DirectX 9 Features?

The argument here is that game test 4 is not “DirectX 9 enough”. Once again, a good application should draw a scene as efficiently as possible. In the case of game test 4 this means that some objects use Pixel Shaders 2.0, and some use 1.4 or 1.1 if a more complex shader is not required. Because each shader model is a superset of the prior shader models, this will be very efficient on all DirectX 9 hardware. In addition, the entire benchmark has been developed to be a full DirectX 9 benchmark: The whole test, as is the whole benchmark, is built using the DirectX 9 API. Most importantly, the benchmark is written directly onto DirectX 9, using only a light DirectX wrapper engine; The leaves, the sky and the water all use 2.0 vertex and pixel shaders, that the are new main features of DirectX 9; The workload of the test is clearly designed for the performance that is currently only available in DirectX 9 generation hardware. On average 780,000 polygons are rendered per frame, and well over 100MB of graphics content is used per frame!

Once 3D games start using vertex and pixel shaders in the same magnitude that 3DMark03 does, there
will be a clear correlation between 3DMark03 and game benchmark results. It is safe to say that it will take quite some time until there is a game on the market that is “more DirectX 9” than game test 4 of 3DMark03. And by that time, we will already be developing a new 3DMark.

Conclusion

Consumers and the computer industry at large have a need to be able to make apples-to-apples comparisons to help them determine the benefits of new technology. 3DMark03 meets this need by being a sound and impartial benchmark for measuring Microsoft DirectX 9.0 compliant hardware.
3DMark03 is called “the Gamers’ Benchmark”, because it empowers gamers and consumers to objectively assess modern hardware performance. Over 1.5 million copies of 3DMark03 have been downloaded within the first 72 hours of its release.


Please feel free to post your opinions, comments or suggestions in the forums. You do not need to register to post in the forums. :-)