View Full Version : NVidia ha barato nel 3dmark2003.
kronos2000
15-05-2003, 11:03
Le prove sono state offerte da Extremetech.
Questa è la relativa news riportata da lithium(www.lithium.it)
E' quanto afferma l'autorevole sito ExtremeTech, che riporta come prova per la propria affermazione diversi screenshots di questo famoso benchmark, che è per sua natura deterministico, ovvero fissa le scene sempre nella stessa maniera. L'articolo è assai tecnico ma proviamo a darne una spiegazione semplice e intuitiva. La molla che ha spinto ad indagare erano alcune discprepanze fra i bench facenti uso di giochi ordinari(Radeon e GeforceFx affiancate) e quelli sintetici(GeforceFx superiore).
Il punto è fondamentalmente il seguente: poichè nei benchmark sintetici il punto di vista dell'osservatore è statico, chi sviluppa l'hardware, conoscendo a priori ciò che verra visto e ciò che NON verrà visto sullo schermo facendo girare il benchmark, può stabilire di tagliare via gli angoli non visti, aumentando vistosamente il numero di frames per secondo renderizzati.
Non solo, è anche possibile risparmiare sulla banda di memoria perchè non è necessario ripulire lo Z e il color buffer per quei pixel che non saranno visti.
Poichè Extremetech è dotata di una versione per soli sviluppatori del 3dMark, è stato possibile stoppare il bench e scegliere un angolo di visuale leggermente differente(cosa che succederebbe nel mondo dei giochi normali)e sono saltati subito agli occhi tutti gli artefatti.
nVidia risponde all'accusa adducendo come scusa un errore dei driver...
Trovate l'articolo a questo indirizzo.
http://www.extremetech.com/article2/0,3973,1086857,00.asp
A questo punto, si pone orami una domanda: i benchmark classici per le schede video hanno ancora un senso?
redheart
15-05-2003, 11:08
Originally posted by "kronos2000"
Le prove sono state offerte da Extremetech.
A questo punto, si pone orami una domanda: i benchmark classici per le schede video hanno ancora un senso?
[/i]
infatti secondo me è meglio saggiare la potenza della skeda su un gioco o su una applicazione :)
Si sapeva gia' dei detonator x il 3dmark,anche gli ultimi aumentano il punteggio. ;)
BYe
kronos2000
15-05-2003, 11:18
si, ma per la prima volta viene spiegata approfonditamente la modalità dell'intervento.
E viene anche fornita una possibile alternativa ai bench classici.
Insomma, una voce autorevole e fuori dal coro. Non i soliti commenti da salotto.
High Speed
15-05-2003, 11:38
allora io faccio un' altra osservazione...
questo "trucchetto" non è altro che quello che avviene normalmente da anni ormai nei giochi....
cioè è risaputo come infatti lo stesso articolo specifica che nei giochi non si è statici per cui i driver e la gpu gestiscono in modo ottimale la grafica evitando di progettare quello che non si vedrà in una tipica scena...
allora io dico se in un test come il 3d03 mi va lenta la mia rad8500 quasi a scendere ad 2-3 fotogrammi al secondo questa situazione non rispecchia la reale situazione in un gioco dove appunto ciò che è superfluo non serve....
per cui se supponiamo di rivere le stesse scene del 3d03 da giocatore anche la mia rad 8500 avrà sicuramente più punti grazie al maggior numero di fps...
dunque come ho detto da quando è uscito....
stò test serve a vendere schede nuove....
ps
io ancora non ho trovato giochi che mi rallentino la mia rad8500 da scendere sotto i 30 fps...
Originally posted by "High Speed"
allora io faccio un' altra osservazione...
io ancora non ho trovato giochi che mi rallentino la mia rad8500 da scendere sotto i 30 fps...
Beh,dipende da che risoluzione e con che dettagli del gioco e filtri attivati hai.
Mi pare un tantino generica come affermazione.
BYe
sanitarium
15-05-2003, 11:52
Un bench sintetico come il 3dmark 2003, per essere veramente definito "attendibile", deve essere eseguito allo stesso modo sia su schede ATi che su schede NVidia, altrimenti non avrebbe senso di esistere. Se Futuremark l'ha programmato in un certo modo, è giusto che venga eseguito in quella maniera, senza eliminare alcunché dalla scena, neanche nei punti nascosti. E' l'unico modo per avere un confronto realmente attendibile tra schede ATi e NVidia, tra un'architettura e un'altra, perché altrimenti togliendo un po' qua e tagliando un po' là si verrebbe a creare una situazione che porterebbe vantaggio da una parte o da un'altra, in modo del tutto squilibrato e arbitrario. Qui non stiamo parlando di un gioco, ma di un bench che serve a valutare l'efficienza delle varie schede video e delle loro architetture, ed esso deve essere eseguito esattamente come Futuremark ha disposto. Io almeno la vedo così.
High Speed
15-05-2003, 12:00
Originally posted by "rubex"
Beh,dipende da che risoluzione e con che dettagli del gioco e filtri attivati hai.
Mi pare un tantino generica come affermazione.
BYe
ciao
io intendo sempre la stessa dei test (anche se hai ragione e me lo immaginavo che qualcuno me lo facesse notare ;) )
cmq
lo standard (per me) 1024@32bit senza antialiasing attivati
Originally posted by "High Speed"
cmq
lo standard (per me) 1024@32bit senza antialiasing attivati
Allora ti do' ragione,anche se credo che ogni tanto con U2,in particolari scene sotto i 30fps ci scende :p ;)
BYe
Hanamichi
15-05-2003, 13:12
BRAVA NVIDIA! :rolleyes:
Jaguar64bit
15-05-2003, 13:15
Originally posted by "Hanamichi"
BRAVA NVIDIA! :rolleyes:
nell'altro topic ho fatto i complimenti ad Nvidia x i nuovi driver.......quindi dico siamo alle solite..... :D
Hanamichi
15-05-2003, 13:20
Originally posted by "Jaguar64bit"
nell'altro topic ho fatto i complimenti ad Nvidia x i nuovi driver.......qui dico siamo alle solite..... :D
sta stufando veramente :rolleyes:
Jaguar64bit
15-05-2003, 13:22
Originally posted by "Hanamichi"
sta stufando veramente :rolleyes:
che ci vuoi fare.......ogniuno tira l'acqua al proprio mulino..... :mc: e Nvidia di mulini ne ha tanti..... :D :D
TheDarkAngel
15-05-2003, 13:23
i soliti buffoni di nvidia...... :rolleyes:
Hanamichi
15-05-2003, 13:23
Originally posted by "Jaguar64bit"
che ci vuoi fare.......ogniuno tira l'acqua al proprio mulino..... :mc: :D :D
si ma io nn ho mai visto certe cose! :rolleyes:
Originally posted by "Hanamichi"
si ma io nn ho mai visto certe cose! :rolleyes:
C'è sempre da imparare... a sto punto vediamo se gli sviluppatori ati si fanno + furbi... :eek: :D
Hanamichi
15-05-2003, 13:27
Originally posted by "Tiafx"
C'è sempre da imparare... a sto punto vediamo se gli sviluppatori ati si fanno + furbi... :eek: :D
se lo fanno pure ati giuro che abbandono il modno PC! :mad:
mi insegna a valutare la bontà dei drivers dai benefici che portano sui giochi e/o applicazioni reali sia intermine di qualità che di velocità.
Barare oppure no con 3dmark...non mi interessa...ma mi incazzerei se si barasse in UT2003 (per esempio).
Riflettiamo con il FA di ATI fino alla 8500...per oltre un anno abbiamo fatto benchs su benchs e le ati andavano sempre meglio delle GF3...si diceva stessa qualità video e prestazioni superiori quindi buttimo la GF3 e prendiamo la ATI 8500LE!!!
Poi...è venuta fuori la storiella del FA basato sul bilineare ma mai dichiarato...ma scusate non dite che i benchs vanno fatti a patirà di condizioni? Personalmente ho provato la 8500LE di mio fratello (che proviene da una GF3ti200 defunta) e mi sono subito reso conto che molta gente che frequenta questo forum ha enormi problemi di vista se "non si è mai accorta che il FA non viene applicato sulel superfici non a 90° o sue quelle lontane dalla prima persona" (ricordate che quando venne fuori tutto, qualcuno diceva che la differenza non si vede....adesso ATI ha cambiato e si è adeguata).
Tornando a noi..questi detonators apportano enormi vantaggi su tutti i giochi provati a prescindere dall'angolo visuale..quindi io dico OTTIMO LAVORO DA PARTE DI NVIDIA.
ciao
mariano
Originally posted by "Hanamichi"
se lo fanno pure ati giuro che abbandono il modno PC! :mad:
e quack non ve lo ricordate?
Hanamichi
15-05-2003, 13:48
Originally posted by "Xtian"
e quack non ve lo ricordate?
no che successe? :eek:
Originally posted by "Xtian"
e quack non ve lo ricordate?
:sofico: :pig:
Originally posted by "Xtian"
e quack non ve lo ricordate?
Ma Quack quanti frames guadagnava? 5 se andava bene.. non credo fosse un cheat quello.. ;)
Originally posted by "Hanamichi"
no che successe? :eek:
praticamente i drivers ATI abbassavano sensibilmente la resa grafica in quake 3.
Se ne sono accorti modificando il nome del file eseguibile con la conseguenza che i drivers ATI non ritrovavano più il file cercato (proprio quake.exe) e non modificavano nulla.
Ovviamente in pochi ammisero con chiarezza quello che era successo (si badi...quake 3 era il benchs più utilizzato al momento).
Ciao
Mariano
Originally posted by "Hanamichi"
no che successe? :eek:
Praticamente all'uscita dell'8500 i drivers beta quando vedevano che era stato lanciato q3 abbassavano il dettaglio (mipmap),anche se era impostato al max nel pannello di controllo.
ovviamente cosi' andava piu' veloce della GF3 ;)
Se ne accorsero semplicemente rinominando l'eseguibile di q3 in quak.exe; i drivers che facevano un controllo sul nome dei files lo beccarono piu' e cosi' si scopri' l'altarino.
Una volta usciti gli ufficiali, cmq, avevano risolto tutti i problemi e queste "ottimizzazioni sparirono"(anche perche' si scateno' il putiferio!!)
Hanamichi
15-05-2003, 14:06
Originally posted by "ligama"
praticamente i drivers ATI abbassavano sensibilmente la resa grafica in quake 3.
Se ne sono accorti modificando il nome del file eseguibile con la conseguenza che i drivers ATI non ritrovavano più il file cercato (proprio quake.exe) e non modificavano nulla.
Ovviamente in pochi ammisero con chiarezza quello che era successo (si badi...quake 3 era il benchs più utilizzato al momento).
Ciao
Mariano
:eek: :eek: :mad: :mad:
Originally posted by "ligama"
mi insegna a valutare la bontà dei drivers dai benefici che portano sui giochi e/o applicazioni reali sia intermine di qualità che di velocità.
Barare oppure no con 3dmark...non mi interessa...ma mi incazzerei se si barasse in UT2003 (per esempio).
Riflettiamo con il FA di ATI fino alla 8500...per oltre un anno abbiamo fatto benchs su benchs e le ati andavano sempre meglio delle GF3...si diceva stessa qualità video e prestazioni superiori quindi buttimo la GF3 e prendiamo la ATI 8500LE!!!
Poi...è venuta fuori la storiella del FA basato sul bilineare ma mai dichiarato...ma scusate non dite che i benchs vanno fatti a patirà di condizioni? Personalmente ho provato la 8500LE di mio fratello (che proviene da una GF3ti200 defunta) e mi sono subito reso conto che molta gente che frequenta questo forum ha enormi problemi di vista se "non si è mai accorta che il FA non viene applicato sulel superfici non a 90° o sue quelle lontane dalla prima persona"
Ma sul serio ancora, dopo un anno di discussioni su discussioni, di analisi e controanalisi, ancora saltano fuori queste sciocchezze?
1) Il filtro anisotropico della 8500 e il suo algoritmo restituisce una ottima qualità e in quella generazione di schede; per dirla tutta il compromesso usato rendeva utilizzabile l'anisotropico su r200, altrimenti inutilizzabile su tutta quella generazione di schede. Non se n'è accorto nessuno per lunghi periodi proprio perchè la qualità restituita era eccellente...su superfici rettangolari era pari se non superiore a quella del gf3.
2) E' una idiozia che il filtro non venga applicato a superfici diverse da 90°: ha un suo funzionamento ben preciso che se ti interessa avrò il piacere di spiegarti.
Ma a ben pensare DOVREBBE interessarti se lo citi in una discussione pubblica...almeno me lo auguro.
Originally posted by "ligama"
(ricordate che quando venne fuori tutto, qualcuno diceva che la differenza non si vede....adesso ATI ha cambiato e si è adeguata).
3) Adesso ati usa lo STESSO IDENTICO ALGORITMO, solo che ha aggiunto l'angolo critico di 45° (ovviamente relativo a tutti i quadranti del cartesiano).
Perciò se adesso dici che l'af di ati va bene bisognerebbe che spiegassi perchè prima andava male o viceversa.
Ti chiedo scusa già ora per il tono aspro di questo mio interveno, ma mi è toccato leggere panzane tali e postate con stupidità e cattiveria tali (temo ce tu sia uno dei tanti caduti nella trappola della "propaganza anti 8500") che ogni volta che le rileggo sento un senso di vuoto.
L'anisotropico di ati è stata una risorsa che non c'entra niente coi test, anche se ovviamente li avvantaggia come avvantaggia la iq nei giochi.
Diciamo forse che i confronti con pharelia non si possono fare perchè ati e nvidia imbrogliano ad usare algoritmi di hsr?
Originally posted by "ligama"
Tornando a noi..questi detonators apportano enormi vantaggi su tutti i giochi provati a prescindere dall'angolo visuale..quindi io dico OTTIMO LAVORO DA PARTE DI NVIDIA.
Ma se tu reputi che un eventuale uso di scene statiche che, guardacaso, si verificano soltanto sul 3dmark, sia un "OTTIMO LAVORO DA PARTE DI NVIDIA", direi allora che ati è stata fenomenale nella faccenda di quack perchè ha preceduto nvidia su queste linee di condotta di ben un anno e mezzo :rolleyes: ;)
Milio
Originally posted by "Milion"
Ma sul serio ancora, dopo un anno di discussioni su discussioni, di analisi e controanalisi, ancora saltano fuori queste sciocchezze?
1) Il filtro anisotropico della 8500 e il suo algoritmo restituisce una ottima qualità e in quella generazione di schede; per dirla tutta il compromesso usato rendeva utilizzabile l'anisotropico su r200, altrimenti inutilizzabile su tutta quella generazione di schede. Non se n'è accorto nessuno per lunghi periodi proprio perchè la qualità restituita era eccellente...su superfici rettangolari era pari se non superiore a quella del gf3.
2) E' una idiozia che il filtro non venga applicato a superfici diverse da 90°: ha un suo funzionamento ben preciso che se ti interessa avrò il piacere di spiegarti.
Ma a ben pensare DOVREBBE interessarti se lo citi in una discussione pubblica...almeno me lo auguro.
3) Adesso ati usa lo STESSO IDENTICO ALGORITMO, solo che ha aggiunto l'angolo critico di 45° (ovviamente relativo a tutti i quadranti del cartesiano).
Perciò se adesso dici che l'af di ati va bene bisognerebbe che spiegassi perchè prima andava male o viceversa.
Ti chiedo scusa già ora per il tono aspro di questo mio interveno, ma mi è toccato leggere panzane tali e postate con stupidità e cattiveria tali (temo ce tu sia uno dei tanti caduti nella trappola della "propaganza anti 8500") che ogni volta che le rileggo sento un senso di vuoto.
L'anisotropico di ati è stata una risorsa che non c'entra niente coi test, anche se ovviamente li avvantaggia come avvantaggia la iq nei giochi.
Diciamo forse che i confronti con pharelia non si possono fare perchè ati e nvidia imbrogliano ad usare algoritmi di hsr?
Ma se tu reputi che un eventuale uso di scene statiche che, guardacaso, si verificano soltanto sul 3dmark, sia un "OTTIMO LAVORO DA PARTE DI NVIDIA", direi allora che ati è stata fenomenale nella faccenda di quack perchè ha preceduto nvidia su queste linee di condotta di ben un anno e mezzo :rolleyes: ;)
Milio
come ho già detto, ho provato direttamente GF3 vs ATI 8500 e ti chiedo:
1. nel 2d hai mai provato una GF3/4 con DVC attivato?
2. nel 3d hai mai provato una GF3/4 con FA ed AA attivato?
1. la qualità di nvidia con DVC attivato nel 2d è ancora inferiore a quella ATI?
2. ti sembra che la differenza qualitativa sia di poca importanza?...forse è colpa mia che ho un occhio troppo preciso...forse è colpa mia che non amo che sparatutto...ma a me sembra che la resa qualitativa del GF3/4 sia piuttosto superiore (con filtri attivati)
Ciao
Mariano
p.s. riguardo al FA a 90° o 45° hai mai notato i tetti delle case in benchs come 3dmark 2001 o villagemark???? sono solo benchs...ma la differenza con un FA applicato totalmente ti sembra trascurabile?
Originally posted by "ligama"
come ho già detto, ho provato direttamente GF3 vs ATI 8500 e ti chiedo:
1. nel 2d hai mai provato una GF3/4 con DVC attivato?
2. nel 3d hai mai provato una GF3/4 con FA ed AA attivato?
1. la qualità di nvidia con DVC attivato nel 2d è ancora inferiore a quella ATI?
2. ti sembra che la differenza qualitativa sia di poca importanza?...forse è colpa mia che ho un occhio troppo preciso...forse è colpa mia che non amo che sparatutto...ma a me sembra che la resa qualitativa del GF3/4 sia piuttosto superiore (con filtri attivati)
Ciao
Mariano
p.s. riguardo al FA a 90° o 45° hai mai notato i tetti delle case in benchs come 3dmark 2001 o villagemark???? sono solo benchs...ma la differenza con un FA applicato totalmente ti sembra trascurabile?
Perchè mi rispondi a delle precise asserzioni con argomenti di tutt'altro tipo?
cosa c'entra la qualità in 2d? Ho forse detto che la qualità nvidia fa schifo?
In altre occasioni ho letto continuamente di utenti che, passando ad ati, denunciavano un palese incremento di iq: personalmente la qualità 2d nvidia della generazione 4 non mi è mai parsa particolarmente male...anche se continuo a preferire di gran lunga la maggiore brillantezza che rilevavo con la 8500 prima e con la 9700 ora rispetto, ad esempio, alla pow ti4200 (che comunque mi sembra vada molto bene).
Però una domanda, visto che hai tirato fuori il discorso, me la sono sempre posta:
con la geforce 3 gli utenti di questi scheda si affettavano per affermare che era quality pari ad ati.
Poi gli stessi utenti hanno preso la 4...e i commenti erano: qualità infinitamente migliore del geforce3, praticamente pari ad ati(!)
Adesso mi tocca sentire le stesse cose riguardo alla fx :)
Precedentemente ti sei chiesto se altri fossero ciechi...io mi chiedo invece se nei drivers nvidia siano comprese formule illusionistiche, se mi passi la battuta. :)
Io non sono un utente nvidia...ho smesso quando mi ha preso in giro con la tnt2 ultra. Ma ho molti amici che continuano ad usare nvidia, alcune delle quali le ho installate io stesso. Tutti questi miei amici sono soddisfatti del loro prodotto, anche della qualità complessiva ed io stesso rilevo che i livelli imbarazzanti (le tinte pastello) dei colori fino al geforce2 sono ormai passati. Solo che tutte le volte che questi miei amici vengono a casa mia i commenti sono sempre gli stessi: "zio cane come si vede bene".
Il DCV non l'ho mai visto all'opera: mi baso su quanti come te ne esaltano le qualità.
Questo mi fa pensare due cose: ma la resa di default è quella con dcv o senza? quindi senza dcv, visto che si parla di differenze marcate, le geforce fanno veramente schifo come qualità? e tutti quegli utenti che non conosco questo settaggio?
In ultimo..se il dcv spara i colori semplicemente agendo sulla gamma, allora posso dirti già da ora che per quanto mi riguarda questo filtro peggiora la situazione, visto che i colori sparati mi fanno schifo.
Comunque chiusa questa parentesi che potrai riaprire in un altro topic perchè, dopo la doverosa risposta alla tua domanda, siamo OT.
Per rispondere al tuo post scriptum, il limite del filtro anisotropico ati della 8500 sta proprio nel suo utilizzo in rotazioni diverse da 90° (e prossime ai 45 aggiungo) sull'asse Z (quindi in profondita).
Perciò, per spiegarmi meglio, la perdita di efficienza dell'algoritmo della 8500 sarebbe evidentissima, ad esempio, su un simulatore di volo in caso di virate che inclinassero la visuale fino a 45°, dove l'algoritmo perde completamente di efficienza e diventa semplicemente bilineare.
Non conosco villagemark, ma i tetti delle case in 3dmark2001 sono quelli del test draghotic giusto?
Hai notato in questo caso quante rotazioni rispetto alla nostra visuale fa quel test? Quindi niente di strano se le noti, sono vere. Hai notato però che negli altri bench invece non si nota affatto? e hai notato anche che imposti l'anisotropico su geforce 4, o peggio su geforce3 che era la diretta antagonista della 8500, qualsiasi gioco diventa pressochè ingiocabile, specie gli fps?
Hai notato inoltre quanto poco comuni, salvo simulatori di volo e qualche gioco di guida delle moto a particolari "pieghe", siano quelle rotazioni di draghotic?
Il suggerimento che diedi più di un anno fa lo ripeto ora: giochi a fligh simulator? non comprare la 8500 se vuoi usare l'anisotropico. Ma se giochi ad alte risoluzioni non comprare nemmeno la geforce 3 perchè non potresti attivarlo :)
In conclusione ribadisco che non ho capito, comunque, perchè hai tirato fuori il discorso della iq 2d e del dcv che non c'entavano niente con il mio intervento sul filtro anisotropico.
Milio
Tornando all'argomento originale non mi stupisco affatto, al di la delle simpatie ricordate che ATI e nVidia vogliono GUADAGNARE quattrini e che trucchi simili ne hanno usati e ne continueranno ad usare molti anche in futuro... ;)
Cosa dire :) ...per me il problema riguarda la FutureMark...è lei che si doveva preoccupare di fare un benchmark a prova di "trucco"...se qualcuno lo aggira...beh...allora significa che non è poi così attendibile.
Lo stesso dicasi per i bench dei vari giochi (Doom 3 & company)...che a questo punto non sono più così al sicuro nemmeno loro...no ? (non è forse sempre una sequenza predefinita di un ambiente 3D ?)
Quindi...o questo porterà alla morte dei benchmark (per risfoderare il caro vecchio e infallibile occhiometro! :D)...oppure, ma ne dubito fortemente, dovrebbero tutti darsi una regolata per non "barare" pur di guadagnare consensi dalla plebaglia (noi...appunto...alcuni anche disposti a spendere un'assurdità pur di possedere "il meglio mal sfruttato").
Per quanto mi riguarda il mercato delle schede video PC è già al paradosso...sia come prezzi (altissimi!) che come supporto (del resto i programmatori non riusciranno mai a stare dietro un hardware ogni 6 mesi...dovrebbe passare almeno un anno e mezzo o 2 fra una GPU e la successiva evoluzione).
Hanamichi
15-05-2003, 16:54
Originally posted by "Saturn"
Tornando all'argomento originale non mi stupisco affatto, al di la delle simpatie ricordate che ATI e nVidia vogliono GUADAGNARE quattrini e che trucchi simili ne hanno usati e ne continueranno ad usare molti anche in futuro... ;)
si ma di certo ati nn fa ste cose! anche se imbroglia pure lei! :muro:
lzeppelin
15-05-2003, 18:20
I bench come il 3dmark e quake sono armi per convincere gli utenti a comprare.
Armi potentissime.
Quante volte è data importanza al 3dmark piuttosto che ad un gioco sempre directx?
Golden American
15-05-2003, 18:34
hardocp riporta una news dove extremetech conclude che nvidia ha barato anche in ut2003................TRISTEZZA :cry: :eek: :mc:
nvidia still climbing
Golden American
15-05-2003, 18:42
3DMark Invalid?
Two days after Extremetech was not given the opportunity to benchmark DOOM3, they come out swinging heavy charges of NVIDIA intentionally inflating benchmark scores in 3DMark03. What is interesting here is that Extremetech uses tools not at NVIDIA's disposal to uncover the reason behind the score inflations. These tools are not "given" to NVIDIA anymore as the will not pay the tens of thousands of dollars required to be on the "beta program" for 3DMark "membership".
nVidia believes that the GeForceFX 5900 Ultra is trying to do intelligent culling and clipping to reduce its rendering workload, but that the code may be performing some incorrect operations. Because nVidia is not currently a member of FutureMark's beta program, it does not have access to the developer version of 3DMark2003 that we used to uncover these issues.
I am pretty sure you will see many uninformed sites jumping on the news reporting bandwagon today with "NVIDIA Cheating" headlines. Give me a moment to hit this from a different angle.
First off it is heavily rumored that Extremetech is very upset with NVIDIA at the moment as they were excluded from the DOOM3 benchmarks on Monday and that a bit of angst might have precipitated the article at ET, as I was told about their research a while ago. They have made this statement:
We believe nVidia may be unfairly reducing the benchmark workload to increase its score on 3DMark2003. nVidia, as we've stated above, is attributing what we found to a bug in their driver.
Finding a driver bug is one thing, but concluding motive is another.
Conversely, our own Brent Justice found a NVIDIA driver bug last week using our UT2K3 benchmark that slanted the scores heavily towards ATI. Are we to conclude that NVIDIA was unfairly increasing the workload to decrease its UT2K3 score? I have a feeling that Et has some motives of their own that might make a good story.
Please don't misunderstand me. Et has done some good work here. I am not in a position to conclude motive in their actions, but one thing is for sure.
3DMark03 scores generated by the game demos are far from valid in our opinion. Our reviewers have now been instructed to not use any of the 3DMark03 game demos in card evaluations, as those are the section of the test that would be focused on for optimizations. I think this just goes a bit further showing how worthless the 3DMark bulk score really is.
The first thing that came to mind when I heard about this, was to wonder if NVIDIA was not doing it on purpose to invalidate the 3DMark03 scores by showing how the it could be easily manipulated.
Thanks for reading our thoughts; I wanted to share with you a bit different angle than all those guys that will be sharing with you their in-depth "NVIDIA CHEATING" posts. While our thoughts on this will surely upset some of you, especially the fanATIics, I hope that it will at least let you possibly look at a clouded issue through from a different perspective.
Further on the topics of benchmarks, we addressed them earlier this year, which you might find to be an interesting read.
We have also shared the following documentation with ATI and NVIDIA while working with both of them to hopefully start getting better and more in-game benchmarking tools. Please feel free to take the documentation below and use it as you see fit. If you need a Word document, please drop me a mail and let me know what you are trying to do please.
Benchmarking Benefiting Gamers
Objective: To gain reliable benchmarking and image quality tools placed in upcoming retail games and demos, thus allowing for more valuable hardware analysis. This in turn should impact the games sales through “free” publicity that will reach millions of advanced computer owners. Also better driver performance, hardware performance, and compatibility should be realized through this, as the major GPU/VPU companies will give games and demos with benchmarks more technical attention.
Please see our editorial at this link for more perspective on how we should be “benchmarking right”.
The Basics: id Software has outlined the “Benchmarking Must Haves” in their previous tools very well. Their tool set has everything hardware analysts absolutely need but none of the things that "normal" gamers need in order to easily use the tool set. Making this tool set easy to use with a GUI interface has been successful for many companies in getting their games noticed, although a GUI is not “needed”.
I have tried to convey my thoughts as quickly as possible so as to not make this a novel. Please do not hesitate to send any questions to: Kyle@HardOCP.com.
cmq nn c'è miglior bench dei giochi!
i programmi tipo 3dmark & co. servono solo a vedere qualcosa di carino sul proprio pc e al massimo a vedere come si comporta la scheda in overclock ( a dire il vero il 3dmark2003 nn è neanche tutto sto gran che, preferisco il 2001 :( )
Volete bench seri? prendete i giochi, giocateci e, al massimo, scaricatevi fraps!!!! ;)
Originally posted by "Hanamichi"
si ma io nn ho mai visto certe cose! :rolleyes:
se'è visto di peggio tranquillo, ricordi ati e quake3?
Hanamichi
15-05-2003, 19:23
Originally posted by "checo"
se'è visto di peggio tranquillo, ricordi ati e quake3?
adesso so... :rolleyes:
Originally posted by "checo"
se'è visto di peggio tranquillo, ricordi ati e quake3?
Se permetti non è per niente la stessa cosa!
Il peggioramento dei frame era sotto i tuoi occhi, in questo caso proprio no!
Originally posted by "mioipe"
Se permetti non è per niente la stessa cosa!
Il peggioramento dei frame era sotto i tuoi occhi, in questo caso proprio no!
appunto nvidia a barato meglio.
ora non die che lo fa pure nei giochi, altrimenti si vedrebbero artefatti.
sblantipodi
15-05-2003, 23:17
Originally posted by "TheDarkAngel"
i soliti buffoni di nvidia...... :rolleyes:
non dimenticate che Ati fece la stessa cosa con Quake III quindi .... ;)
Originally posted by "checo"
appunto nvidia a barato meglio.
ha :D
sblantipodi
15-05-2003, 23:22
ops ...
Non avevo visto che anche gli altri avevano parlato di Q3.
CMQ credo che sia tutto uno schifo indifferentemente se si sceglie Ati o Nvidia.
La migliore cosa prima di comperare una scheda è vedere innanzitutto il budget di cui si dispone e poi quello che ci si deve realmente fare con la scheda.
Io non compro Ati o Nvidia ma la scheda che in quel momento di avvicina di + alle mie esigenze.
A volte nvidia è stata + conveniente altre -.
A proposito del DVC qualcuno mi spiega esattamente cosa fa?
Perchè l'ho provato a casa di un mio amico e mi è sembrata solo una specie di utility che gioca con la gamma, la luminosità e il contrasto...ergo posso ottenere gli stessi identici risultato con qualunque scheda video.
Ricordo un post di checo in cui diceva che mettendo il DVC al massimo pareva di avere lo schermo radioattivo...alzate la gamma su una radeon o un'altra sk. e vedrete lo schermo radioattivo pure voi.
Originally posted by "sblantipodi"
non dimenticate che Ati fece la stessa cosa con Quake III quindi .... ;)
Quindi è giusto eh? :rolleyes:
mah...
Milio
Originally posted by "sc82"
A proposito del DVC qualcuno mi spiega esattamente cosa fa?
Perchè l'ho provato a casa di un mio amico e mi è sembrata solo una specie di utility che gioca con la gamma, la luminosità e il contrasto...ergo posso ottenere gli stessi identici risultato con qualunque scheda video.
Ricordo un post di checo in cui diceva che mettendo il DVC al massimo pareva di avere lo schermo radioattivo...alzate la gamma su una radeon o un'altra sk. e vedrete lo schermo radioattivo pure voi.
Come ho già detto ne sento parlare bene, ma ho il sospetto che spari i colori da quello che si legge in giro (ma non ho mai provato per conto mio).
Se così fosse l'effetto farebbe ancora più schifo delle impostazioni magari non ottimali di default.
Ovviamente imho.
Milio
Originally posted by "Milion"
Come ho già detto ne sento parlare bene, ma ho il sospetto che spari i colori da quello che si legge in giro (ma non ho mai provato per conto mio).
Se così fosse l'effetto farebbe ancora più schifo delle impostazioni magari non ottimali di default.
Ovviamente imho.
Milio
l'effetto al minimo è buono, da ai colori maggiore brillantezza.
purtroppo facendo degli screen essi sono identici.
aggiungo, hai presente il geforce 2 e i suoi colori certe volte sbiaditissimi?
quelli riuscivi a farli sembrare brillanti con gamma contrasto etc?
col dvc penso ci si riuscirebbe
sblantipodi
16-05-2003, 12:31
Originally posted by "Milion"
Quindi è giusto eh? :rolleyes:
mah...
Milio
Ma perchè non leggi quello che ho scritto prima di imbrattare inutilmente il 3D???
Sei un altro di quelli che postano per aumentare il numero di messaggi??? bah lo dico io :rolleyes:
A me il dvc ha sempre fatto schifo, dal Gf2 mx al Gf4 Ti 4400 che avevo prima. Effettivamente il desktop appariva più brillante e migliore come qualità visiva (altro non era che un cambiamento della gamma dei colori), salvo poi trovarmi foto con colori irreali. Ho sempre preferito disattivarlo anche perchè a me lo schermo (a parte nei giochi) piace molto scuro.
OverClocK79®
16-05-2003, 13:44
si me la ricordo ankio la storia di Q3
mi sembra all'epoca della 8500
però adesso è OK
voglio vedere se poi escono driver sentra TRUCCO quanto fa realmente la 5900/5800 :)
BYEZZZZZZZZZZZ
Originally posted by "sblantipodi"
Ma perchè non leggi quello che ho scritto prima di imbrattare inutilmente il 3D???
Sei un altro di quelli che postano per aumentare il numero di messaggi??? bah lo dico io :rolleyes:
Rimango sempre interdetto di fronte ad un itervento del genere.
La voglia è immancabilmente quella di vederti di persona se faresti lo stesso un simile commento...ma questa è ovviamente una fantasia.
Avevo scritto un po di roba per risponderti per le rime, poi mi sono detto che non ne vale la pena proprio.
Sei un poveraccio incapace di rapportarsi in pubblico e che sostiene i suoi argomenti con gli insulti.
In quanto poveraccio non meriti nemmeno che ti si spieghi il perchè perciò, intanto vieni segnalato ai moderatori....poi vai a finire dritto dritto dove meriti.
Non è delle banalità che scrivi infatti che sentirò la mancanza.
Milio
Originally posted by "checo"
aggiungo, hai presente il geforce 2 e i suoi colori certe volte sbiaditissimi?
quelli riuscivi a farli sembrare brillanti con gamma contrasto etc?
col dvc penso ci si riuscirebbe
I famosi colori pastello eh? :D
Non ho mai provato, ma non dubito che si potessero ottenere dei miglioramenti in quella generazione.
gf4 secondo me non ha bisogno...io continuo a preferire la saturazione e la temperatura delle tinte ati, più saturi e un po più freddi a parità di gamma, ma la qualità generale 2d mi è sembrata molto migliorata rispetto alle generazioni precedenti.
Comunque se non ce n'è necessità l'innalzamento della gamma allora spara i colori ottenendo un effetto che, ripeto, personalmente considero pessimo :)
Milio
sblantipodi
16-05-2003, 14:43
Originally posted by "Milion"
Rimango sempre interdetto di fronte ad un itervento del genere.
La voglia è immancabilmente quella di vederti di persona se faresti lo stesso un simile commento...ma questa è ovviamente una fantasia.
Avevo scritto un po di roba per risponderti per le rime, poi mi sono detto che non ne vale la pena proprio.
Sei un poveraccio incapace di rapportarsi in pubblico e che sostiene i suoi argomenti con gli insulti.
In quanto poveraccio non meriti nemmeno che ti si spieghi il perchè perciò, intanto vieni segnalato ai moderatori....poi vai a finire dritto dritto dove meriti.
Non è delle banalità che scrivi infatti che sentirò la mancanza.
Milio
Hahahahah.
Segnala segnala.
Quello che ha insultato sei tu caro ;)
Come ti ripeto leggi bene ;)
CMQ io sono stanco di litigare qui. Leggete leggete leggete poi parlate ;)
PS: Aspetto che un mod faccia il suo commento :)
PS: Se vuoi venirmi a fare visita sono di Pescara ... Se sei interessato di dò l'indirizzo :D
sblantipodi
16-05-2003, 14:49
Originally posted by "sblantipodi"
ops ...
Non avevo visto che anche gli altri avevano parlato di Q3.
CMQ credo che sia tutto uno schifo indifferentemente se si sceglie Ati o Nvidia.
La migliore cosa prima di comperare una scheda è vedere innanzitutto il budget di cui si dispone e poi quello che ci si deve realmente fare con la scheda.
Io non compro Ati o Nvidia ma la scheda che in quel momento di avvicina di + alle mie esigenze.
A volte nvidia è stata + conveniente altre -.
MILIO forse non volevi leggere... Ecco quello che avevo scritto prima del tuo commento ;)
e pensi sul serio che questo tuo post contenga qualcosa che ribalti il signifato dell'altro?
Se è così hai seri problemi di comunicazione.
Ed in ogni caso pensi che questo basti a giustificare un intervento come il tuo precedente?
Se è così non hai soltanto seri problemi di comunicazione.
E ti ho già aiutato pure troppo in questi tuoi eventuali problemi.
Chiusa la storia per me...se riterranno interverranno i moderatori.
Milio
P.s. io sono di Jesi, un'oretta e mezza di macchina da Pescara. Qualche anno fa sarei già partito...adesso so già che fare la strada per vedere l'espressione ossequiosa di un ragazzo che ancora pensa di potersi comportare da duro perchè è dietro uno schermo e che poi questa durezza si sbriciola nella vita di tutti i giorni non ne vale granchè la pena.
Potrei ricredermi però...il quel caso mandami pure il tuo indirizzo in pvt.
sblantipodi
16-05-2003, 17:24
Originally posted by "Milion"
e pensi sul serio che questo tuo post contenga qualcosa che ribalti il signifato dell'altro?
Se è così hai seri problemi di comunicazione.
Ed in ogni caso pensi che questo basti a giustificare un intervento come il tuo precedente?
Se è così non hai soltanto seri problemi di comunicazione.
E ti ho già aiutato pure troppo in questi tuoi eventuali problemi.
Chiusa la storia per me...se riterranno interverranno i moderatori.
Milio
P.s. io sono di Jesi, un'oretta e mezza di macchina da Pescara. Qualche anno fa sarei già partito...adesso so già che fare la strada per vedere l'espressione ossequiosa di un ragazzo che ancora pensa di potersi comportare da duro perchè è dietro uno schermo e che poi questa durezza si sbriciola nella vita di tutti i giorni non ne vale granchè la pena.
Potrei ricredermi però...il quel caso mandami pure il tuo indirizzo in pvt.
Con le offese e le minaccie di venirmi a trovare hai iniziato tu ;)
Non ti scaldare che mi vien da :D
Hey Mod.
Ma vedete sto piccolo bimbo come minaccia???
Ma niente gli dite???
PS: Attento a non farti la bua, a pescara usiamo il ferro ;)
PPS: Con questo chiudo e chiedo skusa, ma veramente skusa a tutti coloro che hanno letto queste insulse righe.
Per via di usare i privati?
Dio mio, due bambini che si minacciano sul forum nascondendosi dietro un nick, era dai tempi della chat che non mi capitava...
Originally posted by "DjLode"
A me il dvc ha sempre fatto schifo, dal Gf2 mx al Gf4 Ti 4400 che avevo prima. Effettivamente il desktop appariva più brillante e migliore come qualità visiva (altro non era che un cambiamento della gamma dei colori), salvo poi trovarmi foto con colori irreali. Ho sempre preferito disattivarlo anche perchè a me lo schermo (a parte nei giochi) piace molto scuro.
Peccato che nn sia possibile visionare il DVC con uno shot...
Per le foto che intendi? colori storpiati o troppo sparati?
Hai presente come quando su una tv spari al massimo i colori e tutto diventa coloratissimo e finto? Uguale. In pratica avevo le persone con la pelle tendente al rosso e colori falsissimi. Il desktop era più vivo, ma tutto il resto perdeva di molto.
Si me l' ero immaginato...
A molti piace, a me sinceramente no...
De gustibus
Originally posted by "DjLode"
Hai presente come quando su una tv spari al massimo i colori e tutto diventa coloratissimo e finto? Uguale. In pratica avevo le persone con la pelle tendente al rosso e colori falsissimi. Il desktop era più vivo, ma tutto il resto perdeva di molto.
sinceramente non so se il dvc non fa altro che alzare la gamma so solo che non è possibile catturare i suoi effetti con uno shot.
so anche che su una scala da 1 a 10 io uso il dvc a 2 , e non falsa , certo se lo metti a 10 o anche a 5 i colori si falsano
Originally posted by "DjLode"
Per via di usare i privati?
Dio mio, due bambini che si minacciano sul forum nascondendosi dietro un nick, era dai tempi della chat che non mi capitava...
Dj già è abbastanza squallido avere a che fare con tipi simili, vedi per cortesia di non mettertici pure tu co ste frasi lapidarie...specie visto che i moderatori sono latitanti.
E l'uso dei pvt vale tanto per chi litiga quanto per chi invita di smettere.
Ad ogni modo nessuna minaccia:
Originally posted by "Milion"
Rimango sempre interdetto di fronte ad un itervento del genere.
La voglia è immancabilmente quella di vederti di persona se faresti lo stesso un simile commento...ma questa è ovviamente una fantasia.
Quindi nessuna minaccia da parte mia, nonostante le provocazioni e nonostante sia stato lui ad offrire di postare il suo indirizzo (cosa che ovviamente non ha fatto), visto che dopo molti anni conosco perfettamente gli atteggiamenti di certi ragazzini. Era solo per mettere in luce come tipi simili, che aggrediscono subito senza riuscire ad esporre le proprie opinioni, si fanno schermo con un monitor ma poi, di persona, sono tutto il contrario.
Perciò se ci si immischia almeno si abbia l'accortezza di leggere bene quello che è successo.
Tra l'altro fossi tu stesso uno che le manda a dire le cose!
Detto questo, e amareggiato mio malgrado, chiudo la mia partecipazione a questo thread.
Eventuali risposte solo in pvt.
Milio
Originally posted by "Milion"
Dj già è abbastanza squallido avere a che fare con tipi simili, vedi per cortesia di non mettertici pure tu co ste frasi lapidarie...specie visto che i moderatori sono latitanti.
E l'uso dei pvt vale tanto per chi litiga quanto per chi invita di smettere.
Guarda che a me non devi anzi non dovete dimostrare niente. La frase di cui sopra rimane, ho sempre detto quello che penso e la vostra discussione l'ho trovata squallida.
Oltretutto la discussione è nata qui quando doveva nascere in privato, l'invito a piantarla lo scrivo qua non di certo in privato. Con la vostra discussione non c'entro, dico solo che visto che non c'entro come non c'entrano tutti gli altri, non voglio leggerla. Punto e basta.
Originally posted by "checo"
so anche che su una scala da 1 a 10 io uso il dvc a 2 , e non falsa , certo
se lo metti a 10 o anche a 5 i colori si falsano
Ti ripeto, a me faceva schifo :)
Lo usavo al minimo (ora come ora non mi ricordo la scala e non ho modo di controllare), insomma impostato alla prima tacca disponibile. I filmati avevano colori osceni e le foto erano orrende.
Sarà questione di gusti personali ma se quello è l'unico modo (secondo alcuni) di salire di qualità di immagine (passando da una Ati 7500 ad una Gf4 non ho notato grossi cambiamenti, quindi io non ne sentivo il bisogno)... bhè siamo alla frutta.
Originally posted by "Milion"
Rimango sempre interdetto di fronte ad un itervento del genere.
La voglia è immancabilmente quella di vederti di persona se faresti lo stesso un simile commento...ma questa è ovviamente una fantasia.
Avevo scritto un po di roba per risponderti per le rime, poi mi sono detto che non ne vale la pena proprio.
Sei un poveraccio incapace di rapportarsi in pubblico e che sostiene i suoi argomenti con gli insulti.
In quanto poveraccio non meriti nemmeno che ti si spieghi il perchè perciò, intanto vieni segnalato ai moderatori....poi vai a finire dritto dritto dove meriti.
Non è delle banalità che scrivi infatti che sentirò la mancanza.
Milio
Originally posted by "Milion"
e pensi sul serio che questo tuo post contenga qualcosa che ribalti il signifato dell'altro?
Se è così hai seri problemi di comunicazione.
Ed in ogni caso pensi che questo basti a giustificare un intervento come il tuo precedente?
Se è così non hai soltanto seri problemi di comunicazione.
E ti ho già aiutato pure troppo in questi tuoi eventuali problemi.
Chiusa la storia per me...se riterranno interverranno i moderatori.
Milio
P.s. io sono di Jesi, un'oretta e mezza di macchina da Pescara. Qualche anno fa sarei già partito...adesso so già che fare la strada per vedere l'espressione ossequiosa di un ragazzo che ancora pensa di potersi comportare da duro perchè è dietro uno schermo e che poi questa durezza si sbriciola nella vita di tutti i giorni non ne vale granchè la pena.
Potrei ricredermi però...il quel caso mandami pure il tuo indirizzo in pvt.
Originally posted by "Milion"
Ad ogni modo nessuna minaccia:
Quindi nessuna minaccia da parte mia, nonostante le provocazioni e nonostante sia stato lui ad offrire di postare il suo indirizzo (cosa che ovviamente non ha fatto), visto che dopo molti anni conosco perfettamente gli atteggiamenti di certi ragazzini. Era solo per mettere in luce come tipi simili, che aggrediscono subito senza riuscire ad esporre le proprie opinioni, si fanno schermo con un monitor ma poi, di persona, sono tutto il contrario.
Perciò se ci si immischia almeno si abbia l'accortezza di leggere bene quello che è successo.
Tra l'altro fossi tu stesso uno che le manda a dire le cose!
Detto questo, e amareggiato mio malgrado, chiudo la mia partecipazione a questo thread.
Eventuali risposte solo in pvt.
Milio
Direi che arrivare anche alle minacce fisiche (se rileggi cosa hai scritto la cosa è nata dalle tue parole!!) per certi argomenti (oltretutto triti e ritriti) lo dovro abberrante...
decido per una sospensione di 10gg..sospensione non solo per via di questa situazione ma anche di tutte le altre "piccole" situazioni con atteggiamenti sempre poco flessibili ed inclini alla polemica e allo scontro diretto (se ti ricordi ne parlammo anche in email tempo fà)
detto questo ti avverto (non minaccio) che se situazioni simili si riverificheranno dopo il termine della sospensione non ci saranno + sconti
>bYeZ<
Originally posted by "FreeMan"
decido per una sospensione di 10gg..
dopo recenti sviluppi la sospensione viene tramutata in BAN
>bYeZ<
Dark Schneider
17-05-2003, 17:24
Originally posted by "Hanamichi"
si ma di certo ati nn fa ste cose! anche se imbroglia pure lei! :muro:
Se si bara..allora barano tutti. Ste cose ci son sempre state...che sia nvidia...ati...3dfx...sempre. A proposito di quest'ultima mi ricordo di quando avevo la Banshee. Mettevo i drivers creative ed avevo una migliore qualità. Mettevo i drivers 3dfx la qualità era inferiore, ma le prestazioni erano superiori. Ad esempio poi in Quake 3 ricordo che c'erano alcune cose che non andavano..tipo portali che con i drivers 3dfx erano diversi di come dovevano essere e tante altre cosettine diverse e qualititvamente inferiori(ricordo sul sito creative c'era un confronto tra drivers). Volevo capire il perchè poi nei bench ottenevo punteggi più alti con i drivers 3dfx rispetto a quelli creative. Ricordo che verificai diverse cose, ed utilizzai anche l'utilissimo benchmark 3D Winbench, che se non l'hai provato prima di saggiar le prestazioni velocistiche e tutto il resto stile 3d mark, fa un test per vedere quali effetti 3d supporta. Ricordo che con i drivers della 3dfx praticamente disabilitava diversi effetti 3d come filtro trilineare ed altri,ecc. ed erano visti come non supportati. Mentre con quelli Creative i diversi effetti 3d che la 3dfx disabilitava nei suoi drivers...risultavano tranquillamente supportati ed eseguiti. Ed infatti la differenza qualitativa si notava. Il punteggio del benchmarck ovviamente era a favore dei drivers 3dfx che disabilitando diversi effetti allegerivano la cpu grafica e guadagnavano un po' di fps rispetto ai drivers Creative.
Personalmente continuavo a utilizzare quelli creative, mi fregava poco che con qli altri facevo di più ai benchmark. L'importante è che nei giochi sia tutto ok(anche se in quel mio caso...come ho già detto in quake 3 avevo delle anormalità grafiche con i drivers 3dfx e quindi utilizzavo quelli creative). La cosa importante è che sono rimasto soddisfatto della mia Banshee ed è una buona cosa. Le chiacchiere e guerre tra produttori mi fregano ben poco.
Originally posted by "FreeMan"
dopo recenti sviluppi la sospensione viene tramutata in BAN
>bYeZ< un ban per sta cosa? addirittura?
un ban per tutto il resto.. qusta cosa è solo una delle ultime
cmq per commenti sull'accaduto (se c'è ne volessero essere) invito l'uso dei PVT
>bYeZ<
Originally posted by "FreeMan"
un ban per tutto il resto.. qusta cosa è solo una delle ultime
cmq per commenti sull'accaduto (se c'è ne volessero essere) invito l'uso dei PVT
>bYeZ<
no non non mi nteressa e poi il tuo avatr dice tutto :D:D:D
sblantipodi
18-05-2003, 15:08
Originally posted by "FreeMan"
dopo recenti sviluppi la sospensione viene tramutata in BAN
>bYeZ<
Grazie FreeMan :)
Non c'è da ringraziare... non lo fatto per te.. ne per me..
cmq ti rinnovo anche qui, oltre che in PVT, l'invito a cercare di evitare certi atteggiamenti... hai anche te parte di colpa sull'accaduto...
attaccando così le persone (o controattaccando) la discussione di certo non miigliora... non viene mai presa in considerazione che si possa per prima cosa chiedere dei chiarimenti, magari ci può essere stato un fraintendimento...
;)
>bYeZ<
andretta
18-05-2003, 16:21
Non sapevo di tutte queste storie di "raggiri ai b. mark" da parte della nvidia e dell' ati e veramente mi sono cadute la palle, non perchè tarocassero i risultati usando del "codice aggiuntivo" nei driver, ma perchè a questo punto non si puo' piu' considerare seri i resoconti prestazionali ufficiali e si deve andare a scavare in forum come questo e trovare i vari argomenti in merito, basate sull' esperienza di molta gente che si è trovata delle "soprese" aka queste, per essere sicuri di non farsi almeno prendere per il culo, dopo aver speso minimo 450€!
Già mi infastidiva il prezzo elevatissimo per una scheda che non dura piu' di 3 (MAX!) prima di diventare obsoleta (ho una TNT2Ultra..), mi infastidiva anche pagare di piu' per niente l' enel perchè la mia nuova scheda v. oltre che creare e texturizzare gli ambienti 2D/3D, funziona da stufetta elettrica, per non parlare del fatto che non capisco perchè l' utente finale deve fare da beta-tester perchè le case produttrici devono buttare nel mercato immediatamente i prototipi al posto delle versioni finali...ci mancava solo questa... :mad:
Nvidia come al solito bara x vendere..., anche se poi la maggior parte degli utenti guarda le reali prestazioni nei giochi e non dei bench :D
Originally posted by "Drio"
Nvidia come al solito bara x vendere..., anche se poi la maggior parte degli utenti guarda le reali prestazioni nei giochi e non dei bench :D
Cio' che va considerato e' che Nvidia ha disconosciuto fin da subito il 3dmark 2003 ed ha dato il via ad una "guerra" con Futuremark, la quale ha risposto con manovre altrettanto discutibili :
- Nvidia a gennaio 2003 esce dal beta program del 3dmark
- Nvidia critica il 3dmark con un documento uscito tempo fa
- Futuremark respinge le accuse
- Nvidia dichiara che e' facilissimo ottimizzare i driver per 3dmark
- Futuremark "vieta" temporaneamente i detonator 42.68 ed affini per trovare "il marcio" in essi, che non trova, scatenando l'ira degli utenti del loro forum.
- Futuremark "riammette a furor di popolo" i 42.68 e affini ma impone per la PRIMA volta la regola di utilizzare solo driver WHQL per le comparazioni "ufficiali".
- Nvidia rilascia driver WHQL in barba a futuremark (44.03)
- Extremetech trova un bug (o trucco?) testando i 44.03 con la versione developer del 3dmark : in pratica la scheda renderizza correttamente solo cio' che appare sullo schermo.
- Nvidia dichiara che probabilmente si tratta di un bug, non essendo piu' membro del beta program non aveva lo strumento per verificarlo (sara' vero?) ma che comunque vedra' di risolvere.
Questa brevemente e' stata la catena degli eventi/dispetti che futuremark e Nvidia si sono rimcabiati.
L'utente finale di queste cose se ne interessa ben poco, poiche' il 3dmark rimane "uno dei" test per giudicare l'effettiva resa di una scheda, non un parametro imprenscindibile.
Se l'effettivo guadagno di queste modifiche s'e' riflettuto sui punteggi, allora posso dire che s'e' attestato (almeno nel mio caso) sui 150 punti, tutto sommato trascurabile.
Golden American
19-05-2003, 13:09
su ut2003 pero' non mi pare abbia chiarito nulla nvidia ;) :mc:
Originally posted by "Golden American"
su ut2003 pero' non mi pare abbia chiarito nulla nvidia ;) :mc:
Che problema c' è con Ut2003?
Hanamichi
19-05-2003, 13:31
avete visto il nuovo bug con il 3d mark 2001? :D
yossarian
19-05-2003, 14:41
Originally posted by "CS25"
Cio' che va considerato e' che Nvidia ha disconosciuto fin da subito il 3dmark 2003 ed ha dato il via ad una "guerra" con Futuremark, la quale ha risposto con manovre altrettanto discutibili :
- Nvidia a gennaio 2003 esce dal beta program del 3dmark
- Nvidia critica il 3dmark con un documento uscito tempo fa
- Futuremark respinge le accuse
- Nvidia dichiara che e' facilissimo ottimizzare i driver per 3dmark
- Futuremark "vieta" temporaneamente i detonator 42.68 ed affini per trovare "il marcio" in essi, che non trova, scatenando l'ira degli utenti del loro forum.
- Futuremark "riammette a furor di popolo" i 42.68 e affini ma impone per la PRIMA volta la regola di utilizzare solo driver WHQL per le comparazioni "ufficiali".
- Nvidia rilascia driver WHQL in barba a futuremark (44.03)
- Extremetech trova un bug (o trucco?) testando i 44.03 con la versione developer del 3dmark : in pratica la scheda renderizza correttamente solo cio' che appare sullo schermo.
- Nvidia dichiara che probabilmente si tratta di un bug, non essendo piu' membro del beta program non aveva lo strumento per verificarlo (sara' vero?) ma che comunque vedra' di risolvere.
Questa brevemente e' stata la catena degli eventi/dispetti che futuremark e Nvidia si sono rimcabiati.
L'utente finale di queste cose se ne interessa ben poco, poiche' il 3dmark rimane "uno dei" test per giudicare l'effettiva resa di una scheda, non un parametro imprenscindibile.
Se l'effettivo guadagno di queste modifiche s'e' riflettuto sui punteggi, allora posso dire che s'e' attestato (almeno nel mio caso) sui 150 punti, tutto sommato trascurabile.
150 punti rispetto ai 42.68?
Rispetto ai 43.45 che invece davano un output errato nella renderizzazione del cielo del mother nature (uno dei due unici ps 2.0 utilizzati).
Ho "ricomprato" una scheda nvidia esattamente il giorno che sono usciti i 43.45 ufficiali, quindi incidentalmente non ho provato driver precedenti... e ti confesso che mi risolse il problema di scegliere QUALE versione di driver usare per la recensione della FX, in quanto mi garbava pochissimo l'idea di usare versioni differenti per 3dmark e altri test, visti i risultati contraddittori delle varie versioni (quelli ottimizzati per 3dmark crollavano in altri test ed eccellevano in altri ancora, ma NON erano ufficiali e io di solito testo solo su release vere e proprie).
Per il resto si attendono sviluppi.
Riguardo il presunto bug del 3dmark2001, a me personalmente non si verifica (riassumendo, nel test dragothic high in presenza di AA il drago "scompare e ricompare", come se ci fossero problemi nel processo keyframe / morphing...) quindi non so che dire.
A me in quel test si verificano 2 scatti, nel senso che si ferma per mezzo secondo e riparte, ma la resa grafica e' perfetta.
Magari e' un problema isolato alle 5600, boh (ricordo che ho una 5800...).
ADDENDUM : che problemi ci sono con ut2003? :confused: Ci gioco di tanto in tanto e mi sembra tutto a posto... :confused:
yossarian
19-05-2003, 17:28
Originally posted by "CS25"
Rispetto ai 43.45 che invece davano un output errato nella renderizzazione del cielo del mother nature (uno dei due unici ps 2.0 utilizzati).
Ho "ricomprato" una scheda nvidia esattamente il giorno che sono usciti i 43.45 ufficiali, quindi incidentalmente non ho provato driver precedenti... e ti confesso che mi risolse il problema di scegliere QUALE versione di driver usare per la recensione della FX, in quanto mi garbava pochissimo l'idea di usare versioni differenti per 3dmark e altri test, visti i risultati contraddittori delle varie versioni (quelli ottimizzati per 3dmark crollavano in altri test ed eccellevano in altri ancora, ma NON erano ufficiali e io di solito testo solo su release vere e proprie).
Per il resto si attendono sviluppi.
Riguardo il presunto bug del 3dmark2001, a me personalmente non si verifica (riassumendo, nel test dragothic high in presenza di AA il drago "scompare e ricompare", come se ci fossero problemi nel processo keyframe / morphing...) quindi non so che dire.
A me in quel test si verificano 2 scatti, nel senso che si ferma per mezzo secondo e riparte, ma la resa grafica e' perfetta.
Magari e' un problema isolato alle 5600, boh (ricordo che ho una 5800...).
ADDENDUM : che problemi ci sono con ut2003? :confused: Ci gioco di tanto in tanto e mi sembra tutto a posto... :confused:
I problemi in presenza di AA dipendono, molto probabilmente, da un non corretto interfacciamento dei drivers con il 3DMark e, di conseguenza, da un non corretto funzionamento dell'AA stesso.
Il filtro AA, in effetti, serve per ridurre il "rumore", di cui le scalettature sono l'aspetto più evidente ma non l'unico, insito in un processo di elaborazione di un segnale digitale. Tutto ciò che è impulsivo o limitato nel tempo si estende all'infinito in frequenza e viceversa. Nell'elaborazione numerica dei segnali si tiene conto di questi aspetti e, quando si procede ad operazioni di campionamento e quantizzazione, si opera rispettando il più possibile la condizione di Nyquist (fN=fc/2, dove fN è la frequenza di Nyquist e fc quella di campionamento). Questo permette di minimizzare il rumore dovuto alla sovrapposizione delle code (e, qualche volta anche qualcosa di più) di campioni vicini, ma non permette di eliminarlo completamente. Le tecniche di AA, di conseguenza, agiscono, di fatto, sul rumore generato sull'intera immagine, operando modifiche su di essa e, se non sono ben interfacciate con l'applicazione utilizzata, possono dare origine a problemi di visualizzazione.
Il dubbio che hanno in molti, relativo al 3DMark2001 è dovuto al fatto che dall'uscita della serie FX non si sono più avuti drivers certificati (tranne gli ultimi su cui si sono pronunciati negativamente ExtremeTech e HardOcp), si è avuta una release di drivers (la 42,68), uscita pochi giorni dopo il non troppo felice dedutto della 5800 Ultra, che faceva raddoppiare "miracolosamente" il solo punteggio nel 3DMark2003 (sappiamo bene che abbassando la FP precision da 128 a 64 bit, si avrebbero molti meno calcoli da eseguire, sarebbe necessaria una bandwidth di molto inferiore per il trasferimento dati e la qualità finale ne risentirebbe in maniera quasi impercettibile, tenedo conto che nel framebuffer vengono utilizzati 8 bit per colore (solo la Parhelia e la serie Rxx ne utilizza 10); inoltre nell'utilizzo delle schede delle serie precedenti all'NV30 non si noterebbero differenze né in negativo né in positivo, dato che nessuna utilizza FP128. Il vantaggio è che le applicazioni che richiedono FP128 girano più veloci; lo svantaggio è che non si ha la certificazione Microsoft (non sono DX9)). Poichè all'epoca non molti hanno gridato al miracolo della risurrezione dopo 3 giorni (ogni riferimento a fatti e personaggi è del tutto casuale), viene spontaneo il dubbio che, per ottenere la certificazione e mantenere inalterate le prestazioni, si sia dovuta cancellare la riga di codice che forzava la FP64 laddove era richiesta la FP128, ma si sia "pasticciato" con qualcos'altro.
Questo, purtroppo, è uno degli effetti della cattiva gestione dell'affare NV30, che ha generato un'ondata di sfiducia nei confronti di nVIDIA.
D'altra parte, il comportamento "truffaldino" di NV e anche di altri (qualcuno ha ricordato ATI e Q3 e anche 3DFX) è dovuto all'enorme importanza che viene data, in maniera del tutto insensata, a qualche fps in più o in meno in qualche bench (mentre le cose da valutare dovrebbero essere altre). In un clima del genere è normale vedere gente che si precipita a cambiare la sua ormai "obsoleta" 9700pro, nel momento in cui vengono immesse sul mercato schede (9800pro o 5900Ultra) che gli permetteranno di far girare il gioco xy a 150 invece che a soli 140 fps o di fare 17000 punti invece che 16000 al ndshark2kx.
hard_one
19-05-2003, 18:07
qui se c'e' chi gioca sporco e' senz'altro il produttore del benchmark che prende i dindi dai produttori di schede
anzi visto che il programma e' gratuito e non credo che qualcuno paghi per avere la licenza...
direi che i dindi li prende solo dai produttori di schede e quindi la sua stessa esistenza e motivata da cio'
a noi puo' servire per affinare il sistema o paragonare sistemi simili e non per valutare prestazioni oggettive di sistemi diversi
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.