PDA

View Full Version : Patch per 3D Mark 2003: niente più risultati falsati


Redazione di Hardware Upg
26-05-2003, 15:30
Link alla notizia: http://news.hwupgrade.it/10035.html

Futuremark ha scoperto che in alcune versioni di driver nVidia e ATI varie ottimizzazioni portano ad aumenti delle prestazioni velocistiche, a discapito della qualità

Click sul link per visualizzare la notizia.

Mirus
26-05-2003, 15:37
Che strz :(

pg08x
26-05-2003, 15:39
Complimenti nvidia !!!

Praticamente tutta quell'improvvisa velocità non era dovuta a chissà quali ottimizzazioni hardware nella nuova 5900 ma bensì avevano trovato il modo di truccare i risultati del bench con la complicità di microsoft che certificava i driver !!!
(microsoft+nvidia) = XBOX.

ally
26-05-2003, 15:40
...grande nVidia.....continua così che sei la migliore.....continua a prendere in giro i tuoi acquirenti....vai....

Skeletor
26-05-2003, 15:45
uno scandalo.

cover
26-05-2003, 15:45
LOL :D

Robylu
26-05-2003, 15:50
ammazza che calo dell'nVidia

le ati perdono senza aa ma guadagnano se attivato :confused:

elPirla
26-05-2003, 15:50
adesso pure ati ci si è messa...

rsuter
26-05-2003, 15:53
Mah,
è da un pò di tempo che nn considero i benchmark per valutare una s.v., hanno perso credibilità. :(
Molto meglio veder come vanno con giochi "pesanti", come Unreal2 e simili.

Kazzoncrew
26-05-2003, 15:54
scusate la domanda...

ma potrebbe essere "frode"?
se i benkmark fossero utilizzati da nvidia (cosa che penso fermamente) per far vedere ai propri acquienti (o futuri), come le loro skede di BEVONO quei test, falsificando quindi il risultato e punteggio, che bel casino uscirebbe fuori?

cmq, qualkosa mi diceva ke ATI e sempre aventi, soprattutto con i filtri :)

Hanamichi
26-05-2003, 15:54
Originally posted by "elPirla"

adesso pure ati ci si è messa...

anche ati ci si è messa...di certo avranno messo delle ottimizzazioni come hanno detto ma di certo nn sono infami come Nvidia che fanno calare il PT di oltre 1000( MILLEEE!) PT! :rolleyes:

pg08x
26-05-2003, 15:55
Ati per MENO DI 100 punti parla di ottimizzazioni agli shader directX9 (quindi una cosa che influenza tutta la gestione del directX9 anche con altri test o programmi) e comunque SERIA COME SEMPRE si è dichiarata pronta a far subito marcia indietro.

pg08x
26-05-2003, 15:57
nvidia inizierà a criticare la MadOnion / FuturMark dandogli degli incompetenti, dichiarando che non hanno voluto accettare i loro consiglie (e mazzette) etx etx.
La storia si ripete, è già successo pochi mesi fa.

elPirla
26-05-2003, 15:57
Vero, nvidia dice addirittura che 3dmark 2003 è volutamente programmato per far sfigurare le loro schede. Secondo me non riusciranno mai a dimostrarlo, ammesso che sia vero.

marck77
26-05-2003, 15:58
ihihih, Geforce fai dai te? AHIAHIAHIAHIAHIA :D:D:D:D

Ati 9500@9500PRO 3dmark03 4097 punti a 200€ RULEZ! :D

pg08x
26-05-2003, 16:04
Ma avete letto l'elenco delle modifiche fatte ai detonator (gli otto punti).
Siamo al limite della truffa ai danni degli acquirenti.
Oltre tutto io utente nvidia, spendo il mio tempo e bolletta telefonica per scaricare di queste porcate ?
ma a cosa lavorano questi programmatori nvidia ?
e poi chissà le volte in passato che l'hanno già fatto !!!
Hanno intercettato il codice utilizzato da madonion e rimpiazzato intere routines con codice scritto da nvidia !
ed il bello che questo codice i detonator FX se lo portano dietro SU TUTTI I PC CHE UTILIZZANO SCHEDE NVIDIA indipendentemente dal fatto che l'utente utilizzi o meno questo bench. In pratica con i drivers ti scarichi dei "pezzi di 3dmark",

Florio
26-05-2003, 16:06
Evidentemente qui tutti hanno la memoria corta, nessuno è migliore di nessun altro.



Quack quack

pg08x
26-05-2003, 16:06
CHE SCHIFO !

Membrokid
26-05-2003, 16:10
Beh tutto questo perchè c'è chi spende un pacco di soldi solo per poter fare il figo con 3DMark, visto che non è neanche un test indicativo... MMMITICIII :D MMMITICA nVIDIA!!!

Diadora
26-05-2003, 16:11
Sarà comunque la 5900 è risultata migliore in tutti i test, e con i giochi, non con i benchmark sintetici...

Tasslehoff
26-05-2003, 16:12
Originally posted by "NVIDIA "

we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer. We don't know what they did, but it looks like they have intentionally tried to create a scenario that makes our products look bad.ma quante ne sparano!!!!! :sofico: :sofico:
Io non ho mai comprato una sola scheda video Nvidia, se però (per disgrazia) l'avessi fatto, ora augurerei a Nvidia di sprofondare nelle profondità dell'abisso...

totoro
26-05-2003, 16:12
Ormai si sono perse di vista completamente le esigenze degli utenti a favore di una gara a chi ce l'ha più "grosso" (vedi anche i mhz di intel vs. amd), Direi che queste aziende siano affette da un eclatante caso di "invidia del pene"...poveri noi :D

pg08x
26-05-2003, 16:13
Originally posted by "Florio"

Evidentemente qui tutti hanno la memoria corta, nessuno è migliore di nessun altro.



Quack quack

E qui ti volevo !

Gli utenti della 8500 si lamentano della lentezza in OpenGl di Quake3 ati in dei DRIVERS BETA MAI DIVENTATI UFFICIALI fa un'esperimento.
In tutto il mondo SITI PAGATI DA NVIDIA danno enorme enfasi alla cosa per mesi e mesi quando erano subito usciti drivers ufficiali in cui ati non aveva perdite qualitative.

Ma vuoi proprio un elenco di tutte LE PORCATE che ha fatto nvidia ?
C'è gente che compra le schede video basandosi su questo benchmark !!!

pg08x
26-05-2003, 16:17
Ati è sempre tornata indietro al minimo accenno presunto o vero di sospetto.
Questi bastardi DOPO ESSER GIA' STATI AVVISATI DA MADONION, che aveva richiesto solo drivers certificati si fanno forza della loro posizione con MICROSOFT *collaborazione con xbox e gc* per farsi CERTIFICARE LA TRUFFA !!!

devis
26-05-2003, 16:19
Per non parlare dei bench stra-ottimizzati per Intel.. I bench truccati ci sono sempre stati e ci saranno

pg08x
26-05-2003, 16:20
Ai tempi della 8500 i drivers ati avevano problemi in OpenGl e quale test andava per la maggiore ?
Quake3 !!! che era obsoleto gi' allora come gioco !

I giochi su cui farsi belli PURTROPPO li scelgono i commerciali nvidia !

pg08x
26-05-2003, 16:23
Per non parlare di CG.
Se non ci fosse stata ATI con la 9700 et altre a quest ora le software house starebbero gi' scrivendo SOLO ED ESCLUSIVAMENTE codice fortemente ottimizzato nvidia come era gia successo in passato... per cui progetti nuovi ed anche innovativi come quello delle kyro dovettero scontrarsi contro queste ottimizzazioni mirate che generavano incompatibilita.

Skeletor
26-05-2003, 16:28
ma tanto queste cose bene all'immagine non fanno, spero quindi che nv ne paghi le dovute conseguenze.

Filippo75
26-05-2003, 16:35
Sicuramente Nvidia non ha fatto una bella mossa, però va detto che la 5900 era superiore anche nei vari bench dei giochi, non solo nel 3DMark2003, e questi penso siano affidabili.

Skeletor
26-05-2003, 16:47
altro "piccolo" particolare: l'AA 4X di nv fa pena rispetto a quello di ATI.

lasa
26-05-2003, 16:53
Lo immaginavo....e non è l'unico bench con questo problema mi sa....la trasparenza è merce rara.....

OverClocK79®
26-05-2003, 17:10
sia ATi che nVidia barano in qlk modo....e quando possono :D
l'unica cosa che a quanto pare nVidia barava meglio visto che ha perso bel 1200 punti......

cmq basti pensare che il 3dmark lascia il tempo che trova......e che i benk + importanti sono gli applicativi stessi.....
infatti credo che l'80% dell'utenza avesse capito che erano driver fatti apposta per il 3dmark in quanto nel 3dmark a momenti il risultato raddoppiava mentre nei gioki l'incremento era misero

BYEZZZZZZZZZ

Uzi[WNCT]
26-05-2003, 17:13
:eek:


"die cheaters!" :mad:

Marino5
26-05-2003, 17:17
non mi importa che nvidia sia meglio nei giochi, perchè dopo questa buffonata, io potrei credere che per aumentare gli fps nei gamez riduce la qualità di certi effetti... chi mi dice che per esempio in ut2k3 (largamente usato come bench) non faccia qualche ciocco come nel 3dmark (cosa possibilissima... che so, fare certe cose a 16 e altre a 32 bit...). spero che venga indagata, e per bene!

Smasher_Devourer
26-05-2003, 17:21
La cosa "strana" è che solo nel 2003 la futuremark se la prende con i driver scritti ad hoc quando tutti sanno che anche con il 2001 alcuni driver sia ATI si Nvidia facevano guadagnare punti senza per questo guadagnarne negli applicativi reali.
Non voglio difendere NV ma da quando la stessa si è tolta dal consorzio che finanzia futuremark sono iniziate a spuntare fuori queste polemiche.....sarà un caso?!?!
Cmq non c'è da stupirsi, anche nel settore automobilistico funziona così: le centraline elettroniche riconoscono che si sta effettuando il test standard per il calcolo dei consumi e iniziano ad erogare moooolta meno benzina (togliendo potenza alla macchina): alla fine del test l'auto consumerà pochissimo e verrà certificato con un certo consumo quando invece il consumo effettivo è ben diverso...

pg08x
26-05-2003, 17:24
Originally posted by "OverClocK79®"

sia ATi che nVidia barano in qlk modo....e quando possono

Se io ho un concorrente che ruba non è detto che rubi io stesso.
Se poi vedo che quello continua a rubare e farsi gioco di me prendendo pure in giro tutti i suoi clienti e non gli dice niente nessuno posso essere tentato ma se sono onesto NON RUBO.

La forza di ATI per me è che non SPRECA LE PROPRIE RISORSE in queste PORCATE.
Mentre nvidia tirava giù 1000 punti !!! dal 3dMark 2003 (e vi assicuro che NON E' un lavoretto banale ne tantomeno veloce) ATI ottimizzava r350 ed adesso ha gia' pronto R360 !!!

Questo vuol dire lavorare seriamente e non ingannare i propri clienti.

Ma ci pensate a quei poveretti che hanno rinunciato magari alla settimana bianca per prendersi quel bidone della 5800ultra in preorder ? senza che NESSUNO gli avesse detto del rumore di fondo pari a quello di un martello pneumatico ? mentre potevano prendersi la 9700 sei mesi prima e risparmiare ? e che adesso si sentono dire da nvidia che il modo per giocare con la FX è la 5900 ? e poi scoprono che nvidia ha lavorato a queste modifiche INUTILI AI LORO CLIENTI e CON FRODE per pilotare le recensioni di siti già compiacenti ?

Ducati 998
26-05-2003, 17:29
non è vero che la Fx5900 batte la radeon su tutti i giochi, e prendete in esempio splinter cell, uno dei giochi più "pesanti" in circolazione, e si è visto che la radeon 9800 pro vince su quasi tutte le risoluzioni.

Black87
26-05-2003, 17:37
ritorno sempre sui miei passi... che ce ne frega della qualità quando poi non abbiamo la compatibilità? come mai le schede in questione runnano in egual modo nei bench dx8? xkè è solo il futuremark a cambiare? come mai nessuno se ne era accorto prima? bho... oramai sono interrogativi ke nn mi toccano + di tanto, penso ke rimarrò con la mia 4200, tanto cmq non ho visto ancora un gioco scattoso sul mio pc.

rmarango
26-05-2003, 17:40
Se davvero truccano i driver a discapito della qualita', boicottare i loro prodotti e' la risposta giusta...lo dico sebbene io sia stato e sono tuttora un possessore di schede video nvidia.

(IH)Patriota
26-05-2003, 17:51
LOL !!!!!

Facendo 2 conti sulla differenza di punti ad entrambe le risoluzioni

Nvidia Batte ATI 1832 a 46 ... !!!

Questa chicca si aggiunge alla spaventosa differenza di qualita' nel antialiasing a parita' di valore.

Si vede che insede all' Nvidia e' arrivata una partita di cocaina tagliata male , stanno dando fuori di matto , drivers Nforce2 buggati drivers taroccati , cosa manca alla collezione ? .... Lo sapremo alla prossima puntata . :D LOL

aquila1010
26-05-2003, 18:03
Su http://hardware.multiplayer.it/ - news del 24/5, oltre che riportare la stessa notizia, si fa riferimento a quanto dichiarato su
http://news.com.com/2100-1046_3-1009574.html
da un rappresentante Nvidia che ha accusato Furure Mark gettare discredito sulla sua ditta. Quindi Nvidia ha commentato o no?

neosemy
26-05-2003, 18:07
A parte che nvidia ha rilasciato oggi il comunicato stampa, cioè il seguente:
"Since Nvidia is not part of the Futuremark beta program (a program which costs of hundreds of thousands of dollars to participate in), we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer," the representative said. "We don't know what they did, but it looks like they have intentionally tried to create a scenario that makes our products look bad. This is obvious since our relative performance on games like Unreal Tournament 2003 and Doom3 shows that The GeForce FX 5900 is by far the fastest graphics on the market today."

Per controllare le affermazioni sono andato a questo link:http://www.futuremark.com/betaprogram/
ed ho trovato come beta program solo ATI come produttore di schede video.....ora, tutto torto non hanno no?
Comunque questi test stanno lasciando il tempo che trovano.....tutti tirano l'acqua dal proprio mulino.

lindoro
26-05-2003, 18:13
pubblicato il 26 May 2003, 18:21
La cosa "strana" è che solo nel 2003 la futuremark se la prende con i driver scritti ad hoc quando tutti sanno che anche con il 2001 alcuni driver sia ATI si Nvidia facevano guadagnare punti senza per questo guadagnarne negli applicativi reali.
Non voglio difendere NV ma da quando la stessa si è tolta dal consorzio che finanzia futuremark sono iniziate a spuntare fuori queste polemiche.....sarà un caso?!?!
Cmq non c'è da stupirsi, anche nel settore automobilistico funziona così: le centraline elettroniche riconoscono che si sta effettuando il test standard per il calcolo dei consumi e iniziano ad erogare moooolta meno benzina (togliendo potenza alla macchina): alla fine del test l'auto consumerà pochissimo e verrà certificato con un certo consumo quando invece il consumo effettivo è ben diverso.


sono proprio curioso di sapere di quali test parli, ti riferisci a quelli delle riviste o quelli CEE?
perchü se ti riferisci a primi sei veramente fuori strada

Smasher_Devourer
26-05-2003, 18:17
Mi riferisco ai dati pubblicati dalle case automobilistiche sui propri cataloghi (consumo urbano, misto, ecc...)
Ci sono per ognuna di queste categorie dei test specifici da effettuare: accendere auto, lasciare accesa 2min, gas a 3000 giri per 15 sec ecc....
le centraline riconoscono questo tipo di test (che sono fissi per tutti) e dosano le emissioni di conseguenza.
Ovvvio che una rivista che pubblica i consumi rilevati durante i propri test non dovrebbe commettere "brogli".
Infatti i dati rilevati sono sempre piuttosto diversi da quelli indicati dalla casa madre.

Black87
26-05-2003, 18:36
penso che questo possa essere un parere autorevole, la risposta di Tim Sweeney, l'uomo dietro all'engine di unreal 2
"Pixel shaders are functions, taking textures, constants, and texture coordinates as inputs, and producing colors as outputs. Computer scientists have this notion of extensional equality that says, if you have two functions, and they return the same results for all combinations of parameters, then they represent the same function -- even if their implementaions differ, for example in instruction usage or performance.
Therefore, any code optimization performed on a function that does not change the resulting value of the function for any argument, is uncontroversially considered a valid optimization. Therefore, techniques such as instruction selection, instruction scheduling, dead code elimination, and load/store reordering are all acceptable. These techniques change the performance profile of the function, without affecting its extensional meaning"

Black87
26-05-2003, 18:40
in pratica le ottimizzazioni sembrerebbero valide, almeno stando a questa ipotesi

(IH)Patriota
26-05-2003, 18:44
Originally posted by "neosemy"

...
Per controllare le affermazioni sono andato a questo link:http://www.futuremark.com/betaprogram/
ed ho trovato come beta program solo ATI come produttore di schede video.....ora, tutto torto non hanno no?
Comunque questi test stanno lasciando il tempo che trovano.....tutti tirano l'acqua dal proprio mulino.

In teoria il mulino dovrebbe essere imparziale , il dubbio pero' sul fatto che un codice meno debole scritto da futuremark per il proprio bench sintetico sia cosi' sfavorevole per Nvidia fa sorgere 2 questioni:

1- Futuremark e' dichiaratemente pro ATI
2- Nvidia non si comporta onestamente.

Ciascuno tragga le proprie conclusioni.

shrubber
26-05-2003, 19:11
ma scusate.. tutti di nuovo su sto 3dmark... nei giochi è più veloce la FX5900? si ed è un fatto... se poi si tiene conto del discorso dell'antialiasing falsato bhe cmq sia si può dire che sono alla pari Ati ed Nvidia... invece di dare sempre contro a Nvidia pensate a Futuremark che ha tirato fuori un software di m...a

junkye
26-05-2003, 19:15
questo si che mi sembra un commento azzardato

eduw2k
26-05-2003, 19:19
LOLLLLLL mazza e che differnza per nonna Nvidia^_^

totoro
26-05-2003, 19:37
Spero che esca presto un nuovo video autoironico, quello sul dissi fx era molto carino... :P

marziodivx
26-05-2003, 19:51
ah ragaaaaaa!!! tutti alla rivolta verso Nvidia!!! affa....lo l'Nforce e la gforce!!!

volete un konsiglio...non prendete skede madri kon Nforce2. magari se ci montate una ATI ve la fà andare come un mega drive!!!

io x stare al sikuro..mi prendero' il KT600 kosi non ho nessun dubbio se ci monto la mia 9700PRO

gnoppi
26-05-2003, 20:16
Ma perchè tutti vogliono sempre e comunque scaricare i dirver più aggiornati e le patch più astruse SE IL LORO SISTEMA VA BENE????????
Perchè????? per guadagnare quattro frames al secondo? per passare da 150 a 155 frames!! machissenefrega....
Io non ho neppure installato il SP1 di XP perchè non ne ho bisogno!!!!!

neosemy
26-05-2003, 20:38
Originally posted by "(IH)Patriota"



In teoria il mulino dovrebbe essere imparziale , il dubbio pero' sul fatto che un codice meno debole scritto da futuremark per il proprio bench sintetico sia cosi' sfavorevole per Nvidia fa sorgere 2 questioni:

1- Futuremark e' dichiaratemente pro ATI
2- Nvidia non si comporta onestamente.

Ciascuno tragga le proprie conclusioni.

non so che conclusioni trarre ma nonostante la Futuremark ha detto che sia Nvidia che Ati avevano taroccato i test e che la patch serve a re-bilanciare i test adesso Ati senza filtri è pure salita come punteggio....con i filtri perde 100 punti e la 5900 2000 punti.....mah? e la 5800 ultra che fine ha fatto? MIsteri dei test =)

sanitarium
26-05-2003, 20:40
Originally posted by "neosemy"



non so che conclusioni trarre ma nonostante la Futuremark ha detto che sia Nvidia che Ati avevano taroccato i test e che la patch serve a re-bilanciare i test adesso Ati senza filtri è pure salita come punteggio....con i filtri perde 100 punti e la 5900 2000 punti.....mah? e la 5800 ultra che fine ha fatto? MIsteri dei test =)

E' il contrario, la 9800pro ha guadagnato alcuni punti con i filtri attivati e ne ha persi un centinaio senza. ;)

^TiGeRShArK^
26-05-2003, 20:59
si certamente, quelle ottimizzazioni sarebbero sicuramente valide ... ma se utilizzate nei giochi! non in un bench FATTO APPOSTA x stressare la skeda video! pensi ke se avessero voluto i prog di futuremark nn avrebbero potuto ottimizzare il tutto con facilità??? la cosa ESTREMAMENTE sbagliata di fono è ke nvidia, anzikè dedicarsi ad un'ottimizzazione dei driver x ogni tipo di applicativo, ha sprecato nn so quante energie ( e per fare quel genere di kose ce ne vuole del tempo!) x ottimizzare un bench solo x risultare con un punteggio + alto RISPETTO ad ATI ke invece passa il proprio tempo ad ottimizzare i driver x TUTTE le situazioni possibili....
se kredi ke veramente nvidia abbia fatto bene ad agire così 6 libero di pensarla kome vuoi, ma penso ke d'altronde tutti gli altri siano d'accordo con me....

Al3ego
26-05-2003, 21:07
IMHO non è possibile misurare le prestazioni di alcunchè con benchmark sintetici o test fini a se stessi, mentre ben altra è la valenza di applicazioni "reali".
Per me il 3d mark è come se non esistesse e comunque tra ATI e NVIDIA il più pulito c'ha la rogna...

brivido
26-05-2003, 21:15
Onestamente non faccio il tifo per questa o quella marca perchè la trovo una cosa oltremodo stupida e nei due pc che ho a casa ho sia nvidia, sia ati, ma devo dire che nvidia ultimamente mi ha un pò deluso... anche con la storia dei drivers per nforce2 non è che stia facendo un figurone!

sanitarium
26-05-2003, 21:37
Originally posted by "Al3ego"

IMHO non è possibile misurare le prestazioni di alcunchè con benchmark sintetici o test fini a se stessi, mentre ben altra è la valenza di applicazioni "reali".
Per me il 3d mark è come se non esistesse e comunque tra ATI e NVIDIA il più pulito c'ha la rogna...

Sinceramente io prendo con le pinze qualsiasi risultato del 3dmark, poiché non amo particolarmente i test sintetici, ma qui non stiamo discutendo se sia giusto o sbagliato utilizzare bench come il 3dmark, ma stiamo riflettendo su come una società, pur di strappare consensi dopo un passo falso, si "riduce" a bluffare e a raggirare l'utente con trucchetti abbastanza sporchi, tutto qua. Senza fare discorsi di tifoserie, ATi è stata crocifissa da parecchie persone per la storia di Quake 3, ed è giusto che NVidia paghi le conseguenze del suo operato. Insomma, 1000 punti in meno al 3dmark 2003 non sono noccioline...

cnc76
26-05-2003, 21:54
Ciao gente.....

oggi ho messo la patch....

con la configurazione in sign, prima della patch facevo: 1061 punti.

Adesso con la patch nuova ho fatto 1241 punti. :eek:

Con gli stessi driver e stesse impostazioni.

Cmq, ho notato che alcuni giochi andavano effettivamente più veloci....

strano.

bye by CNC

Al3ego
26-05-2003, 22:39
Originally posted by "sanitarium"



... ma stiamo riflettendo su come una società, pur di strappare consensi dopo un passo falso, si "riduce" a bluffare e a raggirare l'utente con trucchetti abbastanza sporchi, tutto qua...

... ATi è stata crocifissa da parecchie persone per la storia di Quake 3, ed è giusto che NVidia paghi le conseguenze del suo operato. Insomma, 1000 punti in meno al 3dmark 2003 non sono noccioline...

Ho capito benissimo di cosa si parla ma sono anche convinto che nessuno giochi pulito, perciò per me, che mi sono sempre tenuto fuori da queste diatribe, non ha senso criticare ora questo ora quello. Se invece la gente si mettesse in testa che questi test non servono ad una mazza forse neanche esisterebbero e i driver li ottimizzerebbero per i giochi invece che per dei test assurdi.
Cmq mi rendo pure conto che, per chi ci tiene a fare un bel punteggio al 3d mark, questa cosa sa di "bufala" e di truffa :pig: :)

neosemy
27-05-2003, 00:15
mah...io rimango sempre dubbioso.
Se conti e riconti alla fine il risultato non torna mai.
Futuremark è un bench a cui ATI ha collaborato mentre Nvidia se n'e' andata da tempo.
Escono le schede video Nvidia e fanno schifo con questo test.
Escono driver Nvidia nuovi e il risultato cambia sia col test che con i giochi (mi sembra che furono postati miglioramenti pure con U2T,Q3,ecc..).
Tempo una settimana ed esce una patch che ritoglie tutti i punti a Nvidia.
Ma che è una telenovela?
Mi puzza lontano un kilomentro.......perchè non hanno messo i test con la 5800Ultra?
Quella scheda aveva una cosa sola di buono, i test senza filtri (visto la banda)....perchè non li mostrano? Perchè forse con sta patch la Futuremark li ha fatti scendere talmente tanto che sono diventati inverosimili?

5900 prima della patch = 6067
5900 dopo la patch = 4886
scarto -1181
5800 prima della patch = 5877
5800 dopo la patch = ???? forse 4696?
Fatemi capire...fa meno dei test fatti con i 43.45? Che è na barzelletta?....andate a rivedere i test fatti a suo tempo da tutti i siti (compreso HWupgrade).
Ma via....ma una persona che legge ste critiche feroci fatte sia ad Nvidia che ad ATI ma che deve pensare?
Ma non esiste più qualcuno che fa un bench solo per FARE UN CONFRONTO OBIETTIVO???
Pensate male di Nvidia quanto volete ma quessta volta gli devo lasciare almeno il beneficio del dubbio...sta patch puzza de bruciato lontano un Km e per accorgersene basta lasciare il fanatismo da una parte e ragionarci un' po'.
Saluti



P.S.
Me sembra di vedere BeautyFull, uno tarocca i drivers l'altro tarocca il programma

Mauritius
27-05-2003, 07:38
miii che razza calcoli

Se una scheda perde o guadagna qualche decina di punti, nn per questo si può parlare di taroccamenti

Si é voluto porre rimedio ai driver "ad hoc" fatti da Nvidia per il benchmark. D'altronde questo già lo si sapeva

Speriamo solo che nn sia l'inizio di una guerra, sennò che 2c...

sanitarium
27-05-2003, 08:27
Originally posted by "Al3ego"

Ho capito benissimo di cosa si parla ma sono anche convinto che nessuno giochi pulito, perciò per me, che mi sono sempre tenuto fuori da queste diatribe, non ha senso criticare ora questo ora quello. Se invece la gente si mettesse in testa che questi test non servono ad una mazza forse neanche esisterebbero e i driver li ottimizzerebbero per i giochi invece che per dei test assurdi.
Cmq mi rendo pure conto che, per chi ci tiene a fare un bel punteggio al 3d mark, questa cosa sa di "bufala" e di truffa :pig: :)

Questi test sintetici vengono ancora largamente utilizzati nelle recensioni, ed è qui che certi trucchetti assumono una certa gravità, poiché i bench con queste "ottimizzazioni forzate" vengono strumentalizzati. Anche perché, se il 3dmark viene utilizzato come si deve, serve a determinare l'EFFICIENZA delle schede video in determinate situazioni, non soltanto il numero di fps che riescono a totalizzare. Ecco dove sta l'utilità dei test sintetici, nel determinare con un parametro universale le capacità delle schede video in determinate situazioni di stress, non nel vantarsi con gli amici di fare 20 miliardi di punti.

sanitarium
27-05-2003, 08:29
Originally posted by "Mauritius"

miii che razza calcoli

Se una scheda perde o guadagna qualche decina di punti, nn per questo si può parlare di taroccamenti

Si é voluto porre rimedio ai driver "ad hoc" fatti da Nvidia per il benchmark. D'altronde questo già lo si sapeva

Speriamo solo che nn sia l'inizio di una guerra, sennò che 2c...



Qui non si parla di una decina di punti, ma di 1000 punti al 3dmark2003, che sono tantissimi.

neosemy
27-05-2003, 08:47
Originally posted by "sanitarium"



Qui non si parla di una decina di punti, ma di 1000 punti al 3dmark2003, che sono tantissimi.
Esatto...talmente tanti da riportare indietro i bench a 2 release di drivers dietro. Talmente tanti che, secondo Futuremark, adesso vanno meno che con i drivers schifosi di quando è uscita.
Ma non erano i 44.03 i drivers che alzavano le prestazioni?
Come fa ad andare meno che con i 43.45?
A me pare poco probabile e a te?
Non è che ha questo giro l'hanno strozzata troppo sta scheda?

sanitarium
27-05-2003, 08:58
Originally posted by "neosemy"


Esatto...talmente tanti da riportare indietro i bench a 2 release di drivers dietro. Talmente tanti che, secondo Futuremark, adesso vanno meno che con i drivers schifosi di quando è uscita.
Ma non erano i 44.03 i drivers che alzavano le prestazioni?
Come fa ad andare meno che con i 43.45?
A me pare poco probabile e a te?
Non è che ha questo giro l'hanno strozzata troppo sta scheda?

E' probabile che questo crollo sia veramente imputabile a Nvidia se sono vere tutte le "ottimizzazioni" scoperte da Futuremark e dai siti di IT (e sembrerebbe che lo siano eccome). Mi sembra strano che ci sia una coalizione contro Nvidia per far si che le sue schede sfigurino, mentre mi sembra molto più realistico che NVidia abbia fatto si che il punteggio del 3dmark crescesse in modo forzato di release di driver in release, cosa che ha fatto anche per le Geforce4 al tempo dell'uscita della 9700pro (anche se in termini decisamente minori).

pg08x
27-05-2003, 09:03
Avevo letto tempo fa che nvidia VOLEVA finanziare futuremark ma a condizione che scrivessere per le loro schede del codice DIVERSO da quello che girava per tutte le altre e che futuremark si era assolutamente rifiutato volendo fare un test imparziale basato su metodi standard (che sono poi quelli usati da tutti i games non specificatamente ottimizzati).

Nvidia vedendo che non l'aveva vinta e che le fx non erano performanti quanto voleva (altrimenti perchè ricorrere all'overclock ?) ha iniziato a screditare madonion/futuremark

Madonion per contro accortasi che in nvidia avevano sostanzialmente "rifatto" tutta la parte dei test che usa i pixel shader più avanzati () per favorire l'fx ha prima tentato di scoraggiare questo comportamento poco pulito mettendo un test per cui girava solo con drivers certificati.

Nvidia per contro forte della propria collaborazione con Microsoft è riuscita a farsi certificare queste gabole (e qui microsoft mi scade) e siamo arrivati al punto in cui siamo.

Non è il caso di un driver beta che cerca di ottenere punteggi più alti con un vecchio gioco e poi subito abbandonato (come driver).

Qui abbiamo un comportamento volto a truffare i clienti che va avanti ormai da mesi e madonion/futuremark fa BENE a porre l'accento su questo.

Al giorno d'oggi voler fare un bench imparziale è diventato un PECCATO

baldax
27-05-2003, 10:50
ragazzi come siamo messi male :(
e purtroppo sarà sempre peggio....

neosemy
27-05-2003, 11:17
Originally posted by "pg08x"

Avevo letto tempo fa che nvidia VOLEVA finanziare futuremark ma a condizione che scrivessere per le loro schede del codice DIVERSO da quello che girava per tutte le altre e che futuremark si era assolutamente rifiutato volendo fare un test imparziale basato su metodi standard (che sono poi quelli usati da tutti i games non specificatamente ottimizzati).
Nvidia vedendo che non l'aveva vinta e che le fx non erano performanti quanto voleva (altrimenti perchè ricorrere all'overclock ?) ha iniziato a screditare madonion/futuremark

Overclock? Di cosa? Ah....ti riferisci alla 5800Ultra?
Beh...a parte Il FlowFX non mi sembra tanto diversa concettualemente dalla 9800 no?
Quella non è un overclock della 9700?
Ed in attesa dell'R400 ATI non farà uscire un altro overclock chiamato R360?
Mi sembra che su sto piano ATI e Nvidia siano pienamente allineate...
Originally posted by "pg08x"


Madonion per contro accortasi che in nvidia avevano sostanzialmente "rifatto" tutta la parte dei test che usa i pixel shader più avanzati () per favorire l'fx ha prima tentato di scoraggiare questo comportamento poco pulito mettendo un test per cui girava solo con drivers certificati.
Nvidia per contro forte della propria collaborazione con Microsoft è riuscita a farsi certificare queste gabole (e qui microsoft mi scade) e siamo arrivati al punto in cui siamo.

Per i pixel shared sono ottimizzazioni che pure ATI ha fatto dichiarandolo pure. Per quanto riguarda la certificazione che c'entra con le performance o Futuremark? Non la si ottiene mica in base al rendimento ma alla compatibilità.....sia ATI che Nvidia possono farsi certificare pure 1000 drivers tutti uguali basta che rientrino nelle specifiche richieste. La scelta di Futuremark di usare solo quelli certificati mi sembra sia dovuta al fatto di limitare il procreare di bench inutili perchè fatti su un qualcosa di inconcluso, di non definitivo.
Originally posted by "pg08x"


Non è il caso di un driver beta che cerca di ottenere punteggi più alti con un vecchio gioco e poi subito abbandonato (come driver).
Qui abbiamo un comportamento volto a truffare i clienti che va avanti ormai da mesi e madonion/futuremark fa BENE a porre l'accento su questo.

Ma scusa......quando sono usciti i 44.03 oltre che Futuremark furono testati su diversi giochi ed applicazioni.
Ma che mi sono sognato tutto?
Tutti i bench di U2T,Q3,Doom3,ecc... che erano tutti taroccati?
Cioè...hanno fatto drivers che alzano tutti i bench su tutti i giochi applicazioni ma che in realta' non serve a nulla?
Ma ti sembra possibile?
Non mi sembri il primo venuto e sai che una cosa del genere è altamente improbabile....solo che mi sembra molto prevenuto e poco obiettivo.
Originally posted by "pg08x"


Al giorno d'oggi voler fare un bench imparziale è diventato un PECCATO
Mah...io direi più che altro: Al giorno d'oggi voler fare un bench è diventato un PECCATO.
Se conosci qualcuno con una 5800Ultra o una 5900Ultra fatti fare i test sui giochi e su Futuremark......noterai che con i driver 44.03 gira tutto meglio eccetto 3Dmark.....e questo è un dato di fatto riportato su tutti i siti che parlano di hardware.
Francamente sono stanco di sentire sempre la stessa storia:
Nvidia-Microsoft-Intel sono orchi che mangiano bambini sempre e comunque mentre Ati-Linux-AMD sono i salvatori che ci libereranno dalla tirannia.......che baaals :rolleyes:

pg08x
27-05-2003, 11:37
(1) La 9800 NON è una 9700 overcloccata ma bensì integra delle ottimizzazioni a livello di core.
La 9800 produce 25db come la 9700pro. La 5800Ultra 70db, mi sembra che la cosa sia evidente !

(2) Ati ha ottimizzato la gestione dei pixel shader (+100 punti) nvidia HA SOSTITUITO IL CODICE DI MADONION con codice PROPRIETARIO FX, in pratica ha RIFATTO parte del test. Giochi vecchi come Quake2 ad esempio sono NATI ottimizzati per nvidia. Nvidia spinge i siti a fare i test su giochi OBSOLETI SU CUI SA CHE LA PROPRIA SCHEDA gira meglio.
Le specifiche directX9 impongono che le schede abbiano determinate caratteristiche, fare un rendering a 128 rallenta molto le schede nvidia, in alcuni casi loro tentano di "AGGIRARE" il problema.

falcon.eddie
27-05-2003, 12:10
Punto 1)Prima di parlare sentila una FX...LOL! 70db? Ma ti rendi conto di quanto siano 70db?Vieni in negozio che ti faccio sentire la differenza tra i 54db della FX e i 70db(quasi) di una delta.Basta con questa storia dei 70db,io la fx la tengo in negozio e i clienti che ci capiscono quando vengono dicono:Cavolo sembrava facesse molto più rumore dalle recensioni invece è meno rumorosa di una delta e di una volcano7 a massimo regime...Non tirare sempre fuori 'sta storia che non regge +...Al punto 2 neanche ti rispondo visto che se consideri attendibile il 3dmark,e poi dire che nvdia spinge i siti a fare test su giochi obsoleti?Ma che dici?Ti sei fumato l'impossibile? :D I test su doom3 l'hai visti?La 5900 polverizza tutti,e non dirmi che il test non sia affidabile perchè non è fatto con la versione alpha che tutti conosciamo ma con una versione fornita dalla id stessa ai tester,senza contare splinter cell o comanche4?Mi spieghi quali sono i test obsoleti?A parte Quake3 che mi chiedo anche io come mai si usi ancora!

Black87
27-05-2003, 12:27
sono daccordo con eddie, e con neosemy. Impossibile che sia un solo test ad andare peggio, la 5900 polverizza letteralmente le schede in tutti i test dei giochi e non in 3dmark? ma stiamo scherzando? volete dire che nvidia ha fatto questi driver solo x far andare meglio tutti dico TUTTI i test? TUTTI i giochi? allora non si parla di trucchi ma di ottimizzazioni, vere e proprie ottimizzazioni. Poi scusatemi ma è verosimile che, come dice neosemy, con questi driver si abbia un calo di punti tale da far tornare di 2 generazioni dietro i driver, a questo punto anche i driver precedenti avevano ottimizzazioni o sbaglio? e sono praticamente sicuro ke è x questo motivo che non si sfornano punteggi della 5800. poi stranamente c'è un incremento di punteggio x le schede ATi che doveva essere un decremento dell'1%. Poi che senso aveva da parte di ati truccare i driver x ottenere L'UN PERCENTO IN +? la faccenda mi puzza sempre di +.

antosa
27-05-2003, 12:48
Mah,
è da un pò di tempo che nn considero i benchmark per valutare una s.v., hanno perso credibilità.
Molto meglio veder come vanno con giochi "pesanti", come Unreal2 e simili.

Parole sante.

pg08x
27-05-2003, 12:51
Originally posted by "falcon.eddie"

Punto 1)Prima di parlare sentila una FX...LOL! 70db? Ma ti rendi conto di quanto siano 70db?Vieni in negozio che ti faccio sentire la differenza tra i 54db della FX e i 70db(quasi) di una delta!

La fx fa 54db ? bene ALLORA FA + RUMORE DELLA DELTA !!!

Ventola Delta AFB - 0612 EH
Alimentazione: Molex 3 Pin
Velocità: 7000 rpm
Portata aria: 64 m³/h
Rumorosità: 46,5 dBa
Dimensioni: 60x60x25


Ventola Delta FFB 0612 SHE 60x60x38 Extreme

Alimentazione: Molex 3 Pin + Adattatore 4 Pin
Velocità: 7000 rpm
Portata aria: 74 m³/h
Rumorosità: 50,5 dBa
Dimensioni: 60x60x38 mm
Consumo: 6,6 Watt



Ventola Delta FFB 0812 SHE 80x80x38


Alimentazione: Molex 3 Pin + Adattatore 4Pin
Velocità: 4900 rpm +/- 15%
Portata aria: 116 m³/h
Rumorosità: 48,5 dBa
Dimensioni: 80x80x38 mm
Consumo: 6.96 Watt

pg08x
27-05-2003, 12:58
Originally posted by "falcon.eddie"

I test su doom3 l'hai visti?La 5900 polverizza tutti,e non dirmi che il test non sia affidabile perchè non è fatto con la versione alpha che tutti conosciamo ma con una versione fornita dalla id stessa ai tester,senza contare splinter cell o comanche4?Mi spieghi quali sono i test obsoleti?A parte Quake3 che mi chiedo anche io come mai si usi ancora!

Ti chiedi ancora come mai Quake3 si usi ancora ?
Semplice ! Tipico programma openGl ottimizzato nvidia !!!

Riguardo a splinter cell è un porting da console ed è risaputo come sia in assoluto il gioco con cui le skede ATI hanno + problemi (almeno di performance).

Riguardo a Doom3 Karmak aveva dichiarato tempo fa che utilizzando le NUOVE ESTENSIONI STANDARD per openGl otteneva performance che erano la metà di quelle della 9700 per cui ora IL UTILIZZANO LE PATH NV30 (in pratica stà scrivendo codice apposta per nvidia) ed i nuovi Catalyst 3.4 non avevano un problema con Doom3.

Aggiungiamoci i TEST TRUCCATI con 3dmark e vari e vedrai come il quadro è completo.

Ma certo l'interesse di voi negozianti qual'è ? Quello di vendere !!!

Smasher_Devourer
27-05-2003, 13:06
Originally posted by "pg08x"



Ti chiedi ancora come mai Quake3 si usi ancora ?
Semplice ! Tipico programma openGl ottimizzato nvidia !!!

Riguardo a splinter cell è un porting da console ed è risaputo come sia in assoluto il gioco con cui le skede ATI hanno + problemi (almeno di performance).

Riguardo a Doom3 Karmak aveva dichiarato tempo fa che utilizzando le NUOVE ESTENSIONI STANDARD per openGl otteneva performance che erano la metà di quelle della 9700 per cui ora IL UTILIZZANO LE PATH NV30 (in pratica stà scrivendo codice apposta per nvidia) ed i nuovi Catalyst 3.4 non avevano un problema con Doom3.

Aggiungiamoci i TEST TRUCCATI con 3dmark e vari e vedrai come il quadro è completo.

Ma certo l'interesse di voi negozianti qual'è ? Quello di vendere !!!
In pratica tu stai dicendo che con praticamente tutti i giochi Nv va meglio di Ati perchè sono tutti ottimizzati per Nv (programmatori bastardi!). Però le schede Ati sono nettamente meglio/veloci?
Senza far polemica ma se devo comprare qualcosa per giocare vedo quale scheda va più veloce con i giochi che ho intenzione di usare e decido: se Nv paga i programmatori per ottimizzare i giochi solo per le proprie schede io vedo che le schede Nv vanno meglio e compro Nv.
Se vedo che le Ati vanno meglio compro Ati....c'è poco da aggiungere....non mi interessa se in realtà le schede di X sono più veloci ma Y paga i programmatori per farle andare peggio, quello che mi interessa è giocare!

HotMuscle
27-05-2003, 13:16
Ma una considerazione è d'obbligo. Sia Ati che Nvidia hanno rubato. La prima con pochi punti, la seconda con un migliaio. Ma comunque entrambe LADRE sono. E con queto cosa facciamo ? Non compriamo + GPU Ati e/o Nvidia ? Ne dubito molto

pg08x
27-05-2003, 13:24
I problemi di driver e di incompatibilità della radeon 8500 ed anche delle Kyro erano dovuti a queste ottimizzazioni per schede nvidia. Ci sono stati anni in cui nvidia ruled per cui i programmatori si adeguavano.
Questo SPINGEVA IL MERCATO VERSO UN MONOPOLIO dannoso a noi tutti.
Ora ATI ha venduto MILIONI DI CHIP R300. I programmatori PER I GIOCHI NUOVI tengono sicuramente conto che ormai non esiste solo più ATI, tanto è vero che da quando il 3dmark NON HA PIU' OTTIMIZZAZIONI PER NESSUNO è stato fortemente CRITICATO.
Cosa me ne frega dei giochi vecchi ? schede basate su r300 riescono a farli GIRARE ALLA GRANDE !
Nei giochi nuovi invece si è visto che o nvidia paga per ottimizzazioni specifiche oppure ati è superiore.
In questo modo ATI avrà maggiori risorse economiche da investire nell'hardware !

pg08x
27-05-2003, 13:25
scusate volevo dire che ormai non esiste solo più nvidia.

pg08x
27-05-2003, 13:29
Originally posted by "HotMuscle"

Ma una considerazione è d'obbligo. Sia Ati che Nvidia hanno rubato. La prima con pochi punti, la seconda con un migliaio. Ma comunque entrambe LADRE sono. E con queto cosa facciamo ? Non compriamo + GPU Ati e/o Nvidia ? Ne dubito molto

Ati può aver fatto ottimizzazioni specifiche per il 3dmark 2003, NVIDIA HA RUBATO ! perchè ha RISCRITTO DI SANA PIANTA GROSSE PARTI DEL CODICE ORIGINALE DEL TEST e la cosa ancora più grave che magari un utente con una geforce3 nei drivers si scarica e installa questo CODICE INUTILE.

[JaMM]
27-05-2003, 14:02
io dico solo di guardare i fatti... se ATi a 380MHz è in grado di fare determinate cose (battere la 5900Ultra NON in 3DMark ma anche in altri test) significa che in una delle due società sanno veramente come sviluppare l'architettura del chip di una scheda video... nell'altra sanno veramente come sviluppare drivers truccati...

[JaMM]
27-05-2003, 14:03
a voi la scelta...

WhiteBase
27-05-2003, 14:17
Originally posted by "HotMuscle"

Ma una considerazione è d'obbligo. Sia Ati che Nvidia hanno rubato. La prima con pochi punti, la seconda con un migliaio. Ma comunque entrambe LADRE sono. E con queto cosa facciamo ? Non compriamo + GPU Ati e/o Nvidia ? Ne dubito molto

Adesso non esageriamo: leggi il pdf di Futuremark prima di sparare sentenze. Si dichiara un comportamento anomalo dei drivers ati che, ad ogni modo non altera assolutamente la complessità della scena e la qualità del rendering (le ottimizzazioni, per l'appunto le modifiche che rispettano in ogni caso il peso della scena la qualità originaria e altri parametri sono considerate valide dalla stessa Futuremark), Nvidia ha alterato pesantemente la scena: in alcuni test ha fatto renderizzare esclusivamente quanto inquadrato dalla telecamera fissa... con i tool di sviluppo che usano una telecamera mobile spostando l'osservazione scomparivano intere sezioni di schermo; in altri test ha sostituito completamente l'acqua in pixel shader2 con una versione a minore qualità e più veloce. Questo é barare pesantemente.
La scusa poi che essendo fuori dal programma di beta testing non potevano essere in condizioni di barare non regge: Nvidia é uscita dal programma a dicembre, la versione definitiva di 3dmark2003 é stata rilasciata dopo un paio di settimane, a gennaio... quindi é uscita quando l'ultima release candidate (quella che é poi diventata la finale) del test era già pronta, poche storie

Questione punteggi nei giochi: la stessa Futuremark dichiara che trucchi di questo tipo sono perfettamente implementabili in quei giochi che utilizzano funzioni benchmark integrate che visualizzano sempre le stesse sequenze da una visuale prefissata e non modificabile.. tenete conto che i giochi che hanno una funzione bench sono sempre i soliti tre o quattro e che intercettare la chiamata alla funzione bench é tecnicamente molto facile... e che le gli unici ad avere il sorgente per verificare la presenza di trucchi sono i produttori, non esistendo un programma di beta dei bench integrati. Su internet hanno iniziato a circolare alcuni screenshot in-game con contatori di fotogrammi al secondo (c'erano dei link sul forum di nvitalia)... a parità di settaggi, scena e risoluzione con aa4x (anche se quello di Nvidia é di qualità più bassa) la 9800pro aveva un vantaggio di 20fps... in condizioni di gioco reali, non nei bench

neosemy
27-05-2003, 14:20
Originally posted by "pg08x"

I problemi di driver e di incompatibilità della radeon 8500 ed anche delle Kyro erano dovuti a queste ottimizzazioni per schede nvidia. Ci sono stati anni in cui nvidia ruled per cui i programmatori si adeguavano.
Questo SPINGEVA IL MERCATO VERSO UN MONOPOLIO dannoso a noi tutti.
Ora ATI ha venduto MILIONI DI CHIP R300. I programmatori PER I GIOCHI NUOVI tengono sicuramente conto che ormai non esiste solo più ATI, tanto è vero che da quando il 3dmark NON HA PIU' OTTIMIZZAZIONI PER NESSUNO è stato fortemente CRITICATO.
Cosa me ne frega dei giochi vecchi ? schede basate su r300 riescono a farli GIRARE ALLA GRANDE !
Nei giochi nuovi invece si è visto che o nvidia paga per ottimizzazioni specifiche oppure ati è superiore.
In questo modo ATI avrà maggiori risorse economiche da investire nell'hardware !

Non capisco scusami......ma nelle note sui catalyst 3.4 sbaglio o l'70% sono fix di correzione su giochi e bug vari su applicazioni?

Cioè le note ufficiali (riportate pure da Hwupgrade) sono sono le seguenti:

The display corruption noticed around the wheels in the game FI Racing Championship is now resolved
The health meter not being drawn in the game Bounty Hunter is now resolved
Texture corruption in the game Combat Flight Simulator 3 is now resolved
The binocular view not displaying properly in the game Project IGI2 is now resolved
Objects flickering in and out of view when playing Deadly Demo is now resolved
The display corruption noticed in Battlecruiser Millennium when placing the mouse cursor over the menu buttons is now resolved
The ground color not displaying correctly when playing the Jurassic Park demo is now resolved
The display corruption noticed when playing Heli Heroes is now resolved
The texture disappearing in the game AirStrike3D is now resolved
The General Protection Fault error appearing when playing Unreal 2; The Awakening is now resolved
The system not responding with playing the game SimCity 4 is now resolved
The system not responding when task switching between an OpenGL game and the desktop is now resolved
Full Screen Anti-Aliasing not being available when playing Anarchy Online is now resolved
The system failing to respond after pressing the ESC key when playing Half-life Counter Strike is now resolved
The display corruption noticed when running the CodeCreatures benchmark in a system contining a RADEON™ 9200 is now resolved
The display corruption issue when using the send to DV camera feature found in MovieMaker2 is now resolved
Playing *.rm files using the RealPlayer with Overlay Theater Mode enabled no longer results in screen corruption being displayed on a secondary CRT
TV performance being slow and choppy when running an application in the background is now resolved
The display corruption noticed when playing a DVD in TV Theater mode on a secondary display is now resolved
The ATI D3D/OpenGL tab not retaining the correct format when a secondary CRT is connected is now resolved
The display panels icons disappearing when using an FPD and TV is now resolved
The system not responding after previewing the 3D Liquid Desktop screensaver is now resolved
The overlay pixel duplication noticed when the display resolution is set above 1600x1200 is now resolved
The resolution changing to 640x480 32bpp when checking the optimized format for 480i in the YpbPR settings page is now resolved
The display corruption noticed when a system returns from hibernate mode is now resolved
The blue box border noticed around cached URL addresses is now resolved
The system not responding when hot plugging a DFP monitor is now resolved
A TV connection being falsely detected when booting the system is now resolved
Only half of the image being displayed on an HDTV when outputting from the VGA connector is now resolved
An error message being displayed when attempting to install the display driver from the ATI web site is now resolved

Fanno girare alla grande cosa scusa?
Da quando è uscita la 9700 sbaglio o sono almeno alla 3° versione dei catalyst e tutt'ora ci sono incertezze su alcuni giochi?
Qua si parla di giochi 2001/2002/2003 tu per vecchi che intendi scusa? WingCommander?

Per quanto riguarda i nuovissimi:
-Doom3 = Non ho capito nulla di quello che hai detto...cioè la ATI è stata scelta per le fasi iniziali del gioco (Al primoE3 girava proprio su un Pc con ATI) e quindi mi sembrava normale che girasse meglio no? Adesso hanno inserito pure roba per Nvidia e non te va bene? E poi che centra con l'aumento di prestazioni incriminati tra i 43.45 e i 44.03? Boh?
-Splintecell = pro nvidia perchè viene dalle console Xbox e quindi si rientra sulla fantapolitica Nvidia-Microsoft-Intel mangiabambini.
-Quake3 = proNvidia pure questo ottimizzato per nvidia nonostante le ATI ci girano bene...I suoi test andavano bene a tutti adesso è ottimizzato? Non ho visto nessuno protestare quando ci testavano le Geforce4 contro le ATI con risultati pessimi, adesso invece è ottimizzato.....
-U2T = proNvidia pure lui
N'somma secondo te eccetto 3DMark 2003 tutti i giochi sono ottimizzati per Nvidia o sbaglio?
Mah..... non si puo' per una volta parlare obiettivamente di una cosa lasciando il FANATISMO da parte?
Sta patch della Futuremark ha forzato troppo la mano ed è ai limiti del palese il fatto che lo abbia fatto con uno scopo.......perchè invece di dire che Nvidia ha rubato non pensi che forse FUTUREMARK HA RUBATO !!!!
Ciao ;)

WhiteBase
27-05-2003, 14:32
I bug riscontrati non si verificavano in tutte le schede, ma erano spesso dipendenti da specifiche configurazioni hardware. Non credere che Nvidia ne sia completamente esente

Wonder
27-05-2003, 14:42
OK mi sono letto 90 POST e devo dire alcune cosette.

1 - Il piu bel gioco è Monkey Island 2 quindi giocate a quello e divertitevi...2D

2 - Spero ceh ora non cerchiate ancora di difendere a spada tratta nVidia perche di prese per il culo (si puo dire?) è un'esperta...solo che il culo è il nostro

3 - La 5900 spazza via tutto quanto anche senza cheattare...OK sono daccordo...fatemene vedere una almeno..se esiste allora ci credo

4 - per fortuna l'ultima nVidia che avevo era una TNT perhce se avessi dovuto usare sti driver maledetti che cambiano il 3dMark mi sarei sentito mooolto offeso

5 - Cosa ci costa comprare sei o sette computer , metterli in parallelo e giocare con software render???

neosemy
27-05-2003, 14:49
Originally posted by "WhiteBase"


.....Nvidia ha alterato pesantemente la scena: in alcuni test ha fatto renderizzare esclusivamente quanto inquadrato dalla telecamera fissa... con i tool di sviluppo che usano una telecamera mobile spostando l'osservazione scomparivano intere sezioni di schermo;

ti riferisci a questo articolo citato come "fonte" nel comicato stampa della Futuremark?
The sky in Game Test 4 uses Pixel Shaders 2.0, and so having to first draw the entire sky, only to have scene objects occlude it later is an expensive way to render, almost like a back-to-front Painter's Algorithm. Using clip planes to ignore drawing non-visible parts of the sky can save considerable processing time and bandwidth -- although we don't know exactly how much performance benefit nVidia receives. Oddly enough, nVidia hasn't published a registry setting bit to enable/disable this "feature." And while one could take FutureMark to task for drawing the scene in this manner, it is nonetheless what the application does, and we think it should be executed correctly in the hardware.
.....non è a telecamera fissa ma è un pochino diverso e non lo sanno neppure loro i benefici di questa "gestione".....tu invece li sai?
Originally posted by "WhiteBase"


in altri test ha sostituito completamente l'acqua in pixel shader2 con una versione a minore qualità e più veloce. Questo é barare pesantemente.

Dipende.....la Futuremark cita 2 link da leggere come "Fonti indipendenti" che sono:
-http://www.extremetech.com/article2/0,3973,1086025,00.asp
e
-http://www.beyond3d.com/#news5856
....in uno si parla di cielo e nell'altro di acqua....anche qua non è che siano poi tanto convinti. Comunque che ci siano state ottimizzazione più o meno pesanti siamo d'accordo...è sul perchè che non concordiamo :)
Originally posted by "WhiteBase"


La scusa poi che essendo fuori dal programma di beta testing non potevano essere in condizioni di barare non regge: Nvidia é uscita dal programma a dicembre, la versione definitiva di 3dmark2003 é stata rilasciata dopo un paio di settimane, a gennaio... quindi é uscita quando l'ultima release candidate (quella che é poi diventata la finale) del test era già pronta, poche storie

leggi a fondo gli articoli e vedrai che tutti mettono le mani avanti su questo punto. ATI ha per diritto la possibilità di mettere mano al codice di 3DMARK ed Nvidia essendo uscita dal progetto no......su 3DMARK è ATI che comanda, su questo nessuno a nessun dubbio :)

Sui giochi bari poco, o ti gira bene o non ti gira....lo vedi ad occhio anche da solo, attivi i frames e giochi....e che le Nvidia NV30 e NV35 vanno meglio con i 44.03 ci sono decine di prove fatte e riportate sulla rete....
Ciao

Black87
27-05-2003, 15:10
sono daccordo. x me è tutta una messa in scena, anke xkè ancora nn mi spiego ke senso ha da parte di ati truccare x una percentuale così bassa, sembra + un atteggiamento di copertura x la politica contro nvidia

neosemy
27-05-2003, 15:32
Originally posted by "Wonder"

OK mi sono letto 90 POST e devo dire alcune cosette.
1 - Il piu bel gioco è Monkey Island 2 quindi giocate a quello e divertitevi...2D

No no è WingCommanderIV....c'era il film domenica su Italia1, a vedere "Maniac" me veniva la pelle d'oca :D :D

pg08x
27-05-2003, 16:15
Quelli della FutureMark/ Madonion si sono presi con nvidia perchè nvidia voleva che truffassero nel bench mentre Futuremark voleva rimanere imparziale.
E mi risulta anche che abbiano criticato pure ATI per quei 100 miseri punti (ottenuti pure senza rifare il codice, quindi senza barare).
Non mi risulta affatto che il 3dMark 2003 contenga anche una sola riga di codice ottimizzata Ati come NON contiene neppure una riga di codice ottimizzata per Matrox o per le Kyro o chissà quale altro produttore.
Perchè Matrox non si lamenta ?
Karmak ha dichiarato che la Parelia è troppo lenta per doom3 e che utilizzando codice standard le fx 5800 ultra vanno poco più di una geforce4. Perchè adesso ottimizza per le Fx e non che ne so, anche per Matrox ? perchè il mondo è pieno di gente che, nonostante questa casa li prenda in giro in tutti i modi, continua a testa bassa ad acquistare nvidia.
Io ero uno di quelli poi mi son stufato :mad:

pg08x
27-05-2003, 16:20
Se nvidia riesce a vendere l'fx ad un numero sufficiente di persone alcuni programmatori decideranno di ottimizzare per nvidia per non rischiare di perdere un parco di potenziali acquirenti sulle cui schede, leggesi geforce fx, i loro nuovi programmi sarebbero troppo lenti !!!

L'unica salvezza nostra, per non tornare al deleterio monopolio di nvidia, dove qualsiasi sporca menzogna veniva spacciata per oro colato, stà in quei milioni di schede r300 vendute e nel prossimo r400.

Perchè Ati utilizza i propri soldi per danneggiare i concorrenti (come fa nvidia) ma bensì per avere l'hardware più potente

pg08x
27-05-2003, 16:27
Notate bene una cosa.

Madonion ha redarguito anche ATI, anche se si tratta di ben altra cosa rispetto alla truffa attuata da nvidia.

Nvidia ha reagito dicendo a tutto il mondo che quelli di madonion sono degli incapaci incompetenti (comportamento tipico da bambino di 6 anni con la bocca ancora piena di marmellata).

ATI ha dichiarato che leverà subito la modifica ai drivers.

In questo modo il 3dMark 2003 NON CONTIENE NEMMENO UNA RIGA DI CODICE PRO ATI !

Se non è onestà questa ditemi voi quale sarebbe dovuto essere un comportamento più corretto da parte di ATI oppure più bastardo (se parliamo di nvidia).

Intanto i recensori di mezzo mondo hanno già testato le fx con le falsificazioni nei detonator.

neosemy
27-05-2003, 16:55
Originally posted by "pg08x"

Quelli della FutureMark/ Madonion si sono presi con nvidia perchè nvidia voleva che truffassero nel bench mentre Futuremark voleva rimanere imparziale.
E mi risulta anche che abbiano criticato pure ATI per quei 100 miseri punti (ottenuti pure senza rifare il codice, quindi senza barare).
Non mi risulta affatto che il 3dMark 2003 contenga anche una sola riga di codice ottimizzata Ati come NON contiene neppure una riga di codice ottimizzata per Matrox o per le Kyro o chissà quale altro produttore.
Perchè Matrox non si lamenta ?
Karmak ha dichiarato che la Parelia è troppo lenta per doom3 e che utilizzando codice standard le fx 5800 ultra vanno poco più di una geforce4. Perchè adesso ottimizza per le Fx e non che ne so, anche per Matrox ? perchè il mondo è pieno di gente che, nonostante questa casa li prenda in giro in tutti i modi, continua a testa bassa ad acquistare nvidia.
Io ero uno di quelli poi mi son stufato :mad:

Non penso che Matrox&Co si debbano lamentare di qualcosa.....attualemente il loro mercato non è che sia influente no?
Su Doom3 sia ATI che Nvidia stanno usufruendo di favori in merito ad ottimizzazioni.
La ATI è stato il primo partner per Doom3 tanto che la Alpha che girava e gira tutt'ora in rete è quella che si sono lasciati scappare dagli uffici dell'ATI (con tanto di comunicato stampa biblico :))mentre ottimizzavano i driver per l'E3 dove fu presentato proprio su un Pc con una scheda, allora sperimentale, della ATI.
Che adesso con i nuovi chipset Nvidia qualcuno inserisse istruzioni proprietarie dentro il gioco mi sembra una cosa ovvia no?
Il gioco lo devono vendere a più persone possibile, che pensi che si lascino scappare una fetta di mercato come le schede ATI o Nvidia?
Non vedo al momento perchè cercare di ottimizzare un codice (spendendo tempo e risorse) per una scheda che, come dici tu stesso, non è in grado di far girare Doom3 perchè non abbastanza potente.
Se ne avessero venduto qualche milione allora avrebbe pure senso ma di Matrox e Kiro abbastanza potenti per Doom3 (ammesso che esistano) quante ne hanno vendute?
Se in futuro Matrox&Co usciranno con schede da tenere in considerazione vedrai che implementeranno le famose patch (quante ne hanno messe su Q3? un Giga?:)) per relativi possessori di quelle schede....
Per quanto riguarda FutureMark hai link che ho postato sopra (link presi dal comunicato stampa della stessa FutureMark) c'e' scritto esplicitamente che i beta program (tra cui ATI) del programma hanno pieno accesso al codice sorgente di 3DMark.....basta leggere :)
Io ho nel mio pc una ATI 9700Ultra acquistata insieme al mio nuovo Pc 2 mesi fa, in quanto all'epoca era la scheda migliore sul mercato.
Da un mesetto il negoziante ha in negozio una 5800Ultra (della Asustek)che gira alacramente su un PC.
Vedendola girare mi sono reso conto delle seguenti cose:
1)Che in un case chiuso non fa tanto rumore, anche perchè chi spende 500/600€ per una scheda video non è tipo da avere solo la ventola del processore nel Pc. Quindi sentila in funzione e poi vedrai che ti ricredi sul rumore che fa......in un case chiuso con 3 o 4 ventole che girano dentro il suo rumore non è affatto fastidioso.
2)I drivers della Nvidia segnano che questa scheda sta ad una temperatura di 70-75C° a FlowFX fermo (quindi senza nessun rumore) e a 50-55C° con FlowFX acceso (lui ci tiene Dawn la fatina e U2T che girano 8 ore al giorno).
Ora, se guarda l'alert della temperatura ti segnale che è in arco verde (quindi senza problemi) fino alla temperatura di ben 140C°.
Perchè allora tenere sempre acceso il FlowFX alla massima velocità se la temperatura di funzionamento non è poi cosi bassa?
Da questo ti segnalo un articolo http://www.nvitalia.com/stories.php?story=03/05/08/5584631 in cui si segnala la possibilità che il sistema diventi "tachimetrico" attraverso un aggiornamento del bios o con detonator "piu' intelligenti".
Staremo a vedere :)

(IH)Patriota
27-05-2003, 17:40
Originally posted by "neosemy"


...Vedendola girare mi sono reso conto delle seguenti cose:
1)Che in un case chiuso non fa tanto rumore, anche perchè chi spende 500/600€ per una scheda video non è tipo da avere solo la ventola del processore nel Pc. Quindi sentila in funzione e poi vedrai che ti ricredi sul rumore che fa......in un case chiuso con 3 o 4 ventole che girano dentro il suo rumore non è affatto fastidioso.
2)I drivers della Nvidia segnano che questa scheda sta ad una temperatura di 70-75C° a FlowFX fermo (quindi senza nessun rumore) e a 50-55C° con FlowFX acceso (lui ci tiene Dawn la fatina e U2T che girano 8 ore al giorno).
Ora, se guarda l'alert della temperatura ti segnale che è in arco verde (quindi senza problemi) fino alla temperatura di ben 140C°.


Io ho sentito girare la 5800ultra della gainward (quella che doveva fare 7dB e invece ne faceva 7 in meno) , ho un case da 430€ con ali enermax e 8 ventole da 19dB comandate da digidoc che si accendono quando serve e basta , per il processore e il northbridge vado a liquido e quindi rumore 0 , la cosa che fa piu' casino è la ventola della 9700PRO , se avessi dentro una 5800ULTRA farei fatica a sentire il telefono.

Il tutto per avere una scheda overcloccata che gira a 70°C quando il sensore piatto della digidoc attaccato al pcb della 9700 mi segna sotto stress max 55°C (con 28°C di temp ambiente , non a Natale sul balcone) se voglio senza modifiche strane (tipo cornicetta tolta o alimentazione taroccata) arrivo come ridere a 390 Mhz di VPU dai 325 , tant'è che tirandole il collo con il barton 2500+ faccio 17230 3Dmark01 , la 5800 al massimo la fai salire di 2 Mhz , scalda un fottio e probabilmente lavorando a temperature superiori avra' una vita sicuramente inferiore.

La 5900Ultra non l' ho ancora vista di persona e quindi non mi esprimo , ma mi permetto di fare notare che se la 5800 ULTRA fosse questo gioello di scheda Nvidia sarebbe stata deficente ad immettere la sua evoluzione sul mercato con freq piu' basse e dopo neanche 2 mesi dalla sua commercializzazione in volumi , di fatto non hanno che confermato cio' che hanno detto in molti appena l' hanno vista girare -> una porcheria ....

E come se non bastasse erano cosi' convinti delle DDR II e dei 128 bit di bus di memoria che ora usano DDR I e bus a 256bit.

Piu' di cosi' per dimostrare chiaramente il flop della scheda NVdia cosa doveva fare ? Chiamare a casa gli acquirenti e prenderli per il ............... ! :D LOL

Ciauz

Black87
27-05-2003, 18:13
cmq pg08x non x dire è ke mi viene un certo nervoso a leggere i tuoi post, penso di riuscire a capire le stesse cose ke scrivi anke non leggendo le parole in maiuscolo ogni 2 parole e il ma bensì ogni 3.

pg08x
27-05-2003, 20:39
Ati ha accesso al codice sorgente ? al limite disassembli l'eseguibile ! a parte che gli interessati sanno benissimo come gira quel programma, a loro è basta abilitare un log sui loro stessi drivers per capire cosa c'è che rallenta.
Per quanto riguarda Carmak il suo team stà utilizzando una path per r200 (radeon 8500) su schede Ati e path differenziate per nv20 ed nv30 su schede nvidia ma quando uscirà quel gioco (ovviamente in ritardo, volete scommetterci ?) avremo già r400 con cui confrontarci e realisticamente un codice diverso da quello delle varie beta. Per non parlare di giochi come Gun Metal, mera manovra commerciale O il solito Quake2 in cui la superiorità dei driver nvidia in openGl era un dato di fatto e che viene ancora, a torto, considerato un test attendibile nonostante opengl abbia avuto vistose evoluzioni quali le estensioni ARB, ad esempio.
O il Cg, vale a dire far diventare l'ottimizzazione dei titoli a favore di nvidia uno standard industriale, se davvero fosse riuscito questo progetto avremmo visto l'albore di un monopolio simile a quello di microsoft per il software su pc.
Poi difendetela pure, accetto anche il fatto che per voi la 5800ultra possa non essere rumorosa, me se aveste un pc come il mio vi rendereste conto di cosa vuol dire performante, stabile e silenzioso. Compratevi pure la 5800ultra alla fede non si comanda, ognuno ha ciò che si merita.

Black87
27-05-2003, 23:32
se hai una ATi l'unico punto di cui dubito è la stabilità.

(IH)Patriota
27-05-2003, 23:57
Originally posted by "Black87"

se hai una ATi l'unico punto di cui dubito è la stabilità.

Rimane infatti solo un dubbio , se non ci metti una mobbo da 20€ il problema della stabilita' non ti passa neanche per la testa , provata su KT333 , KT400 , Nforce2 mai avuto problemi di instabilita' del sistema , schermate blu ecc... ci gioco a tutto.

fabiosk
28-05-2003, 00:02
Originally posted by "Black87"

se hai una ATi l'unico punto di cui dubito è la stabilità.

Per esempio??? :rolleyes:

sanitarium
28-05-2003, 08:19
Originally posted by "Black87"

se hai una ATi l'unico punto di cui dubito è la stabilità.

Ma cosa sei, un disco rotto?? Gira gira canti sempre la stessa canzone... Le schede ATi sono instabili, i driver ATi fanno schifo, con ATi ci fai girare solo il 3d mark... http://forum.hwupgrade.it/faccine/13.gif

:mc:

pg08x
28-05-2003, 08:34
Originally posted by "Black87"

se hai una ATi l'unico punto di cui dubito è la stabilità.

Non farmi ridere ;) ;) ;)

renartex
28-05-2003, 08:38
ho disinstallato il 3d mark :o non ne voglio più sapere !
p.s.: con la mia configurazione non ho mai visto una schermata blu !! :)

rmarango
28-05-2003, 11:35
Originally posted by "neosemy"



I drivers della Nvidia segnano che questa scheda sta ad una temperatura di 70-75C° a FlowFX fermo (quindi senza nessun rumore).
Ora, se guarda l'alert della temperatura ti segnale che è in arco verde (quindi senza problemi) fino alla temperatura di ben 140C°

A 140 gradi centigradi secondo me cominci a sentire un lieve aroma di silicio arrosto... :sofico: e forse anche prima di 140...

pg08x
28-05-2003, 13:37
Originally posted by "rmarango"



A 140 gradi centigradi secondo me cominci a sentire un lieve aroma di silicio arrosto... :sofico: e forse anche prima di 140...

Se penso che il mio Athlon Xp 2400 @2100Mhz stà sotto i 40c sotto carico con una ventolina da 18db :) 6cm x soli 1800rpm :) :) :)

D'inverno può andar bene per cuocerci qualcosa (magari un uovo) ma d'estate 140c :sofico: :sofico: :sofico:

Per non parlare dei 54db ci vogliono spiccate tendenze masochistiche, oltre che una certa predisposizione ad esser presi per il c... a dotarsi di certo hardware !!! :p poi ognuno si diverte come crede :D

cdimauro
29-05-2003, 06:04
Non si possono assolutamente mettere nVidia e Ati sullo stesso piano per quanto riguarda i taroccamenti del 3DMark 2003: basta andare a vedere ciò di cui è stato capace nVidia per ottenere dei punteggi migliori. Ati ha semplicemente RIORDINATO le istruzioni di alcuni shader per farli andare meglio sulla sua architettura. Date un'occhiata, invece, all'elenco dei trucchi usati da nVidia per aumentare le performance... :rolleyes:

Dello stesso parere sono alcuni programmatori molto famosi che di recente hanno fatto delle dichiarazioni in merito...

nVidia, a mio avviso, sarebbe passibile di una bella denuncia per truffa, perché ha cercato di raggirare gli acquirenti sfruttando la fama del 3DMark...

pg08x
29-05-2003, 11:07
Originally posted by "cdimauro"

Non si possono assolutamente mettere nVidia e Ati sullo stesso piano per quanto riguarda i taroccamenti del 3DMark 2003: basta andare a vedere ciò di cui è stato capace nVidia per ottenere dei punteggi migliori. Ati ha semplicemente RIORDINATO le istruzioni di alcuni shader per farli andare meglio sulla sua architettura. Date un'occhiata, invece, all'elenco dei trucchi usati da nVidia per aumentare le performance... :rolleyes:

Dello stesso parere sono alcuni programmatori molto famosi che di recente hanno fatto delle dichiarazioni in merito...

nVidia, a mio avviso, sarebbe passibile di una bella denuncia per truffa, perché ha cercato di raggirare gli acquirenti sfruttando la fama del 3DMark...

Condivido pienamente e quello che più disturba è che molti sembrano non capirlo, in pratica viene "dirottata" l'esecuzione del codice del test 3dMark verso del codice proprietario di nvidia che imita l'elaborazione originale per ingannare gli utenti che credono che quello quello che vedono sui loro schermi sia il 3dMark2003 mentre in realtà NON è più così, tutte le parti su cui le fx sono più "deboli" vengono totalmente sostituite.

E' una cosa a mio avviso gravissima ma ripeto sembra quasi che gli utenti, anche i più smaliziati, tendano a "sovrassedere" e "dimenticare" quando l'artefice di tali truffe è nvidia.
Personalmente non amo essere preso in giro a tal modo e sono ormai anni che non acquisto più prodotti nvidia (trovandomi per altro molto bene).

^TiGeRShArK^
29-05-2003, 11:23
e il bello è ke secondo loro è futuremark a sbagliare... xkè secondo loro un bench anzikè stressare la skeda video deve essere invece ultraottimizzzato in modo da viaggiare d +... mi sa ke qlc1 in questi post nn ha le idee tanto kiare (o forse gli piace essere preso x il c..o) MAH!