PDA

View Full Version : Ci risiamo,ATI accusa Nvidia di barare!


rubex
23-04-2004, 16:15
Notizia (http://www.theinquirer.net/?article=15502)

Articolo Driverheaven (http://www.driverheaven.net/articles/driverIQ/)

:rolleyes: :rolleyes: :rolleyes:

A voi i commenti...

BYe

Blindman
23-04-2004, 16:25
Mah...mi sembra che sia la conferma di una cosa che avevamo notato tutti dopo aver visto per mezzo secondo le foto dei confronti :D

Paoletta Corsini
23-04-2004, 16:28
Originariamente inviato da Blindman
Mah...mi sembra che sia la conferma di una cosa che avevamo notato tutti dopo aver visto per mezzo secondo le foto dei confronti :D
Mi hai anticipato di un millisecondo :D

Blindman
23-04-2004, 16:30
Originariamente inviato da Paoletta Corsini
Mi hai anticipato di un millisecondo :D

;)

KenMasters
23-04-2004, 17:54
Originariamente inviato da rubex
Notizia (http://www.theinquirer.net/?article=15502)

Articolo Driverheaven (http://www.driverheaven.net/articles/driverIQ/)

:rolleyes: :rolleyes: :rolleyes:

A voi i commenti...

BYe


:Puke:

voglio sperare che si tratti solo di driver acerbi :rolleyes:

.Kougaiji.
23-04-2004, 18:16
..sarà..ma ati rosik rosik...

Thunder82
23-04-2004, 18:26
Originariamente inviato da .Kougaiji.
..sarà..ma ati rosik rosik...

Ma quale ati rosik... leggi l'articolo.

Spero per nVidia che siano solo driver acerbi...


The final issue is why have Futuremark stated that these drivers should be considered as approved? Its very clear to me that the 6800Ultra is not rendering the reference image as desired by 3Dmark, regardless of any performance impact and therefore isnt comparable to any other card. This in result is no different to the optimisations in previous drivers which Futuremark have frowned upon.

R@nda
23-04-2004, 18:27
Mi dite in breve?

Thunder82
23-04-2004, 18:29
Originariamente inviato da R@nda
Mi dite in breve?

Praticamente nVidia "bara" nel 3dmark cambiando texture e mipmap. Questo succede anche in Max Payne 2 e, a sto punto aggiungo io, chissà in quali altri giochi.

TheRipper
23-04-2004, 18:30
Eh...mi sembrava che la differenza fosse cosi' palese:rolleyes:
Quando smettera' nVidia di prendere in giro i loro acquirenti?Forse quando si inizieranno a contare sulle dita di una mano?

R@nda
23-04-2004, 18:31
Ah quindi niente di nuovo:)

Thunder82
23-04-2004, 18:35
Originariamente inviato da R@nda
Ah quindi niente di nuovo:)

Almeno prima la cosa si limitava al 3dmark, ora hanno inserito nelle loro "ottimizzazioni" anche i giochi...

Anonized
23-04-2004, 18:37
se è veramente così, vergogna

Paoletta Corsini
23-04-2004, 18:38
Originariamente inviato da Thunder82
Praticamente nVidia "bara" nel 3dmark cambiando texture e mipmap. Questo succede anche in Max Payne 2 e, a sto punto aggiungo io, chissà in quali altri giochi.
Forse R@nda voleva sapere qualcosa di nuovo :D

Paoletta Corsini
23-04-2004, 18:39
Originariamente inviato da R@nda
Ah quindi niente di nuovo:)
ROTFL!! non avevo letto il tuo commento :rotfl:

Dark Schneider
23-04-2004, 18:42
Futuremark veramente in comunicato che non c'erano cheat e che i risultati con gli attuali drivers sono corretti. L'ha detto il giorno stesso della presentazione del NV40.

Thunder82
23-04-2004, 18:43
Originariamente inviato da Dark Schneider
Futuremark veramente in comunicato che non c'erano cheat e che i risultati con gli attuali drivers sono corretti. L'ha detto il giorno stesso della presentazione del NV40.

I test di driverheaven dimostrano il contrario però.

R@nda
23-04-2004, 18:45
Io preferisco attendere.... e vedere che succede più avanti quando le schede (di entrambe le case e con driver definitivi) saranno nei negozi.
Poi bho....queste accuse sinceramente sono cavoli loro...e dei loro interessi.

Quando la gabola la noto io allora si che mi da fastidio.....quindi vedremo

Dark Schneider
23-04-2004, 18:48
Originariamente inviato da Thunder82
I test di driverheaven dimostrano il contrario però.


Strano che Futuremark dica il contrario. :) Mah..!!
Cmq le chiacchiere le lascio agli altri, perchè tanto a me frega meno di zero. :) Le polemiche ci son sempre state e sempre ci saranno in qls ambito. Fanno parte del gioco. :)

checo
23-04-2004, 18:56
Originariamente inviato da Blindman
Mah...mi sembra che sia la conferma di una cosa che avevamo notato tutti dopo aver visto per mezzo secondo le foto dei confronti :D
tralascinado le foto ps2.0 ps 3.0 te riesci a vedre differenze di qualità su come viene renderizzato 3dmark 2003 ad occhio nudo? non spariamo cazzate per piacere

Paoletta Corsini
23-04-2004, 18:57
Originariamente inviato da Dark Schneider
Strano che Futuremark dica il contrario. :) Mah..!!

L'anno scorso dopo le polemiche come per magia nVIDIA è tornata a finanziare la MadOnion o FutureMark che si chiami :p

TheDarkAngel
23-04-2004, 19:03
Originariamente inviato da Paoletta Corsini
L'anno scorso dopo le polemiche come per magia nVIDIA è tornata a finanziare la MadOnion o FutureMark che si chiami :p

le coincidenze della vita...
mah... voglio proprio vedere chi oserà dire che i driver nvidia sono migliori di ati...
il lupo perde il pelo ma non il vizio..
che sappia già quante leghe di distanza gli darà r420?

Dark Schneider
23-04-2004, 19:07
Originariamente inviato da Paoletta Corsini
L'anno scorso dopo le polemiche come per magia nVIDIA è tornata a finanziare la MadOnion o FutureMark che si chiami :p

Certo perchè infatti per poter dare il proprio apporto nello sviluppare questa minchiata chiamata 3d mark 2003....bisogna pure pagare. Infatti nVidia non ha fatto parte nello sviluppare il bench. Ati si.

La verità è che la gente si fa troppe pippe sui bench. Era una volta quando queste minchiate di cheat c'erano lo stesso(dai tempi di 3dfx...e non da parte di nVidia o cmq non solo da parte di nVidia) ma la gente pensava a divertirsi. Ora la prima cosa che si va a vedere sono i bench, che il numero di fps sia di 1 in più dell'altra scheda (e quindi la scheda che ne fa 1 in meno fa schifo) e dopo divertirsi(anzi alcuni si comprano le schede solo per fare record...che patetici).

Thunder82
23-04-2004, 19:11
Originariamente inviato da checo
tralascinado le foto ps2.0 ps 3.0 te riesci a vedre differenze di qualità su come viene renderizzato 3dmark 2003 ad occhio nudo? non spariamo cazzate per piacere

Magari la differenza è difficile da notare ad occhio nudo, ma 3dmark è uno strumento per valutare la velocità di una scheda sotto un certo carico di lavoro predeterminato. Se i driver modificano questo carico di lavoro, rendendolo più leggero (cambiando texture o mipmap) allora i risultati del bench sono FALSI, perchè non è stato utilizzato il carico predefinito che invece è applicato a tutte le altre schede.

Dark Schneider
23-04-2004, 19:11
Originariamente inviato da checo
tralascinado le foto ps2.0 ps 3.0 te riesci a vedre differenze di qualità su come viene renderizzato 3dmark 2003 ad occhio nudo? non spariamo cazzate per piacere


checo ma non lo sapevi che certi son dotati di una vista da da far invidia ad un aquila?:D Che fortunati...:sofico: Sono proprio nVidioso di loro. :D

-=Krynn=-
23-04-2004, 19:12
anfatti

Dark Schneider
23-04-2004, 19:13
Originariamente inviato da Thunder82
Magari la differenza è difficile da notare ad occhio nudo, ma 3dmark è uno strumento per valutare la velocità di una scheda sotto un certo carico di lavoro predeterminato. Se i driver modificano questo carico di lavoro, rendendolo più leggero (cambiando texture o mipmap) allora i risultati del bench sono FALSI, perchè non è stato utilizzato il carico predefinito che invece è applicato a tutte le altre schede.


Si ma a me personalmente non frega che sia falsato o meno proprio perchè ad occhio nudo è difficile vedere la differenza. Dove sta il punto? Che io non dò peso a queste cose. :)

pandyno
23-04-2004, 19:17
mmhh comunque nvidia ha sempre privilegiato la velocità alla qualità e la storia si ripete... ;)

http://www.tomshardware.com/graphic/19980121/3dbench-35.html

Detto questo ho una 5900xt e non è cosi' malvagia, certo per un occhio attento in Far Cry si notano alcuni particolari....non vitali, ma si notano ;)

altri esempi del passato:

http://www.tech-report.com/reviews/2000q1/g400/index4.x

http://www.tech-report.com/reviews/2000q1/g400/trilinear3.jpg

Thunder82
23-04-2004, 19:22
Originariamente inviato da Dark Schneider
Si ma a me personalmente non frega che sia falsato o meno proprio perchè ad occhio nudo è difficile vedere la differenza. Dove sta il punto? Che io non dò peso a queste cose. :)

Il punto è che allora non si può più valutare in modo obiettivo la velocità di una scheda! Poco importa se le immagini sono quasi uguali, non è un test obiettivo!

Un paragone che calza è questo: devi comprarti una moto supersportiva. Devi scegliere fra una R1 e una GSX-R. Sceglierai in base alle prestazioni no? (oltre ai gusti estetici). Allora ti leggi un po' di prove su strada. Scopri che vanno uguale (290km/h tutte e 2). Ok, allora prendi quella che ti piace di più, l'R1. Poi quando ti arriva scopri che non fa più di 260 e che il tachimetro usato nelle prove su strada era completamente starato rispetto a quello usato con la GSX-R. La situazione è esattamente la stessa, ti sembra corretto misurare le velocità delle 2 moto con 2 tachimetri diversi e con tarature diverse, con quello della R1 starato apposta per farla sembrare più veloce di quello che è in realtà? A me girerebbero non poco le p@lle...

Blindman
23-04-2004, 19:27
Originariamente inviato da checo
tralascinado le foto ps2.0 ps 3.0 te riesci a vedre differenze di qualità su come viene renderizzato 3dmark 2003 ad occhio nudo? non spariamo cazzate per piacere

Io mi riferisco al confronto presunto tra PS 2.0 e PS 3.0, talmente forzato da far ridere...il resto sono cazzate di cui mi frega veramente poco...io i bench 3d se proprio lo vuoi sapere non li faccio nemmeno.....sinceramente me ne frego di chi è meglio tra ATI e NVIDIA...non avevo nessun intento polemico...

Paoletta Corsini
23-04-2004, 19:30
Originariamente inviato da pandyno
mmhh comunque nvidia ha sempre privilegiato la velocità alla qualità e la storia si ripete... ;)

http://www.tomshardware.com/graphic/19980121/3dbench-35.html

Detto questo ho una 5900xt e non è cosi' malvagia, certo per un occhio attento in Far Cry si notano alcuni particolari....non vitali, ma si notano ;)

altri esempi del passato:

http://www.tech-report.com/reviews/2000q1/g400/index4.x

http://www.tech-report.com/reviews/2000q1/g400/trilinear3.jpg
Credo che tu sia stato molto obiettivo con questo intervento, bravo ;)

R@nda
23-04-2004, 19:31
Detto questo ho una 5900xt e non è cosi' malvagia, certo per un occhio attento in Far Cry si notano alcuni particolari....non vitali, ma si notano

La penso anche io così (anche io ho una 5900XT) l'ho presa per tirare avanti e a quel prezzo quando l'ho presa non c'era nulla di paragonabile.(le 9800Pro al ribasso sono arrivate quasi 2 mesi dopo).....insomma è una scheda che fa il suo lavoro e mi lascia tranquillo in ogni cosa che faccio.

Per questa generazione vediamo....tutto dipende dal prezzo,dalla velocità e dalla qualità.

Chissà...

Mostro!!
23-04-2004, 19:39
Sul fatto dei bench mi frega poco, tanto li faccio 1 volta all' anno !!

per quello che riguarda la qualità invece è dai tempi della radeon 7000 che ai miei occhi le ATI risultano + gradevoli, indipendentemente dagli fps !!

che poi giocando ad UT non te ne accorgi è un altro discorso ma attualmente le ATI hanno qualcosa in +, in futuro vedremo :)

Manp
23-04-2004, 19:52
se dico che la cosa mi lascia del tutto indifferente?

:)

R@nda
23-04-2004, 20:06
Originariamente inviato da Manp
se dico che la cosa mi lascia del tutto indifferente?

:)

Non ci crediamo!








:sofico:

Manp
23-04-2004, 20:10
Originariamente inviato da R@nda
Non ci crediamo!

:sofico:

il senso è che a me non importa un fico di come la skeda renderizza l'immagine... se alla fine non vedo differenze (e faccio fatica a vederne) possono usare tutti i trucchi che vogliono... meglio per loro...

quando le differenze le vedo (come in Far Cry ad esempio) valuto di conseguenza... per quanto riguarda il 3d mark poi mi stupisco che ci sia ancora qualcuno che gli da importanza...

:)

Kars
23-04-2004, 20:13
Tanto il 3mark lascia il tempo che trova,e' gia' pronto un nuovo bench della futuremark che con molte probabilita' verra rilasciato entro l'anno,quindi la storia si ripetera' sempre.Vedere punteggi come 13000 al 3dmark2001 e' un conto, ma vedere che con la stessa scheda al 3dmark2003 ne fai 1000 e' un altro.Parliamoci chiaro e' molto probabile che quando uscira' il 3dmark2004 queste schede avranno dei punteggi bassi.Quello che voglio dire e' che secondo me per una scheda valgono molto di piu' i bench che escono dopo l'uscita di una scheda piuttosto che prima.

R@nda
23-04-2004, 20:14
Originariamente inviato da Manp
il senso è che a me non importa un fico di come la skeda renderizza l'immagine... se alla fine non vedo differenze (e faccio fatica a vederne) possono usare tutti i trucchi che vogliono... meglio per loro...

quando le differenze le vedo (come in Far Cry ad esempio) valuto di conseguenza... per quanto riguarda il 3d mark poi mi stupisco che ci sia ancora qualcuno che gli da importanza...

:)


Ma scherzavo:D

Cmq concordo.....

TheDarkAngel
23-04-2004, 20:25
Originariamente inviato da Manp
il senso è che a me non importa un fico di come la skeda renderizza l'immagine... se alla fine non vedo differenze (e faccio fatica a vederne) possono usare tutti i trucchi che vogliono... meglio per loro...

quando le differenze le vedo (come in Far Cry ad esempio) valuto di conseguenza... per quanto riguarda il 3d mark poi mi stupisco che ci sia ancora qualcuno che gli da importanza...

:)


hai ragione..
infatti queste schede video sono solo vendute a prezzi irrisori senza che ne venga banfata nessuna qualità dell'immagine :)

infatti questo non c'e' scritto sul sito di nvidia :)

"NVIDIA® CineFX™ 3.0 Technology
Powers the next generation of cinematic realism. Full support for Microsoft® DirectX® 9.0 Shader Model 3.0 enables stunning and complex special effects. Next-generation shader architecture delivers faster and smoother gameplay."

Dark Schneider
23-04-2004, 20:25
Originariamente inviato da Thunder82
Il punto è che allora non si può più valutare in modo obiettivo la velocità di una scheda! Poco importa se le immagini sono quasi uguali, non è un test obiettivo!

Un paragone che calza è questo: devi comprarti una moto supersportiva. Devi scegliere fra una R1 e una GSX-R. Sceglierai in base alle prestazioni no? (oltre ai gusti estetici). Allora ti leggi un po' di prove su strada. Scopri che vanno uguale (290km/h tutte e 2). Ok, allora prendi quella che ti piace di più, l'R1. Poi quando ti arriva scopri che non fa più di 260 e che il tachimetro usato nelle prove su strada era completamente starato rispetto a quello usato con la GSX-R. La situazione è esattamente la stessa, ti sembra corretto misurare le velocità delle 2 moto con 2 tachimetri diversi e con tarature diverse, con quello della R1 starato apposta per farla sembrare più veloce di quello che è in realtà? A me girerebbero non poco le p@lle...


Allora ti racconto una cosa: l'unico vero benchmark UTILE è stata la serie 3D Winbench. Tutti gli altri bench e quelli attuali sono schifezze immonde. E' mi dispiace moltissimo che il 3D Winbench di Zdnet si sia fermata alle DX7 perchè era l'unico serio.

Ti spiego come funzionava: aveva dei test (oltre 100 se non 200) sia per testare la qualità, gli effetti supportati dalla scheda e per le prestazioni.
Prima di poter eseguire i test dei game(che erano parecchi) e con il relativo risultato velocistico OBBLIGATORIAMENTE testava tutti gli effetti della scheda. Potevi far eseguire il test sugli effetti automaticamente o manualmente. Cioè ad esempio chessò "lens flare": c'erano 3 immagini allineate(oddio forse erano due...cmq son passati 4 anni). Quella a sinistra l'immagine di visualizzazione NON corretta dell'effetto, al centro come deve essere e a destra l'immagine prodotta dalla scheda: da lì vedevi se la tua scheda visualizzava bene un effetto o meno o anche se supportava quell'effetto o meno e sceglievi(se avevi selezionato manuale). Una volta fatti gli oltre 100 test per la qualità partiva quello per la velocità ed infine il punteggio.

Cosa curiosa quando avevo la mitica Voodoo Banshee....notavo che addirittura con i drivers 3dfx rispetto ai Creative...spesso risultavano più veloci. Come? Semplicemente addirittura a quei tempi alcuni effetti venivano DISABILITATI..cioè visti come NON Supportati dalla scheda in hardware. Il punteggio finale era più alto, perchè naturalmente con drivers 3dfx disabilitando alcuni effetti la scheda era "allegerita" e ti assicuro che a volte quando testavo i drivers con questo bench...con quelli incriminati avevo una qualità inferiore MOLTO visibile. Infatti mi tenevo i Creative(anche se erano meno veloci). Ricordo che a quei tempi addirittura sullo stesso sito Creative c'erano delle comparazioni di qualità d'immagine tra i drivers 3dfx e quelli Creative...addirittura i primi a volte generavano immagini un po' anomale in qlc gioco. Ecco questo si che erano cose che mandavano in bestia.

Ora invece è diverso, si agisce in un altro modo: molto spesso si cerca di andare allegerire il calcolo della GPU non facendo calcolare alcune cosette che l'occhio umano molto difficilmente può vedere. Ecco se è così a me va benissimo. Poi può capitare anche che qlc drivers capiti che abbia una qualità un po' inferiore...a volte a causa di qlc bug...a volte per altro motivo...ma che ci frega? Nel senso che cmq non è sempre così: magari quello prima era ok...quello attuale no...e quindi io scelgo di tenermi quelli prima...poi escono nuovi drivers ed hanno una qualità migliore e quindi installo quest'ultimi. Alla fine io so che in quanto a prestazioni una scheda una volta maturata non può avere differenza abissali e quindi scelgo.
Ti dirò anche un altra cosa: questo "truchetto" di non far calcolare la roba non visibile io la lessi qlc anno fa. Lo lessi su una rivista. Si parlava del modo di operare "futuro" delle schede:c'erano diverse tecniche per l'elaborazione delle immagini. E' questa tecnica di calcolare la roba non visibile ad occhio nudo era tra queste: tra le possibili che un produttore di schede video poteva adottare in futuro per poter velocizzare l'elaborazione. Oggi a causa degli interessi notevolmente aumentati rispetto ad allora vengono definiti "trucchi", quando invece è una semplice tecnica.

Quindi alla fine io non me la sento di dire nulla di male nè ad Ati nè a nVidia(nessuna è santa..e non ha importanza chi meno e chi più e magari in un futuro si invertiranno le parti). Poi dipende da persona a persona. Magari te rispetto a me sei più preso dalla battaglia che c'è tra i due produttori. A me invece frega molto ma molto meno di quanto possa in realtà sembrare. Ati e nVidia che facciano quello che vogliono, ma tanto poi sono io che faccio scelte. A me va bene questo modo di agire insomma. Anzi rispetto ad un tempo la situazione possiamo dire che è pure migliorata. Almeno oggi i risultati "falsati" sono meno visibili rispetto al passato. Possiam dire che la battaglia continua con delle maschere celate sul volto. Io ripeto è una questione di persone e persone: e parlando per me...a me tutto ciò non infastidisce minimamente perchè della battaglia tra i due produttori non m'interessa minimamente e perchè mi sta bene questo modo di agire. E' ok. E' meglio rispetto ad un tempo.

Poi mi sembra anche giusto che ognuno abbia un proprio parere. :)

Bye

Dark Schneider
23-04-2004, 20:37
Ah voglio aggiungere una cosa che mi son ricordato solo adesso: avete visto che il 3D Mark 2004 è vicino? Avete visto che solo le schede DX9 potranno farlo girare? Si arriverà un giorno che la gente inizierà a cambiare scheda video anche per il semplice motivo che il 3d Mark non parte...anche se i giochi cmq vanno. Il potere dei benchmark sono aumentati tantissimo perchè purtoppo gli interessi e i soldi che girano sono cresciuti a dismisura rispetto al passato. E' una tristezza a mio parere. Purtroppo al giorno d'oggi se una scheda fa 1 fps in meno rischia di essere bocciata da riviste, nel web,ecc. (che poi è dove sono pulicizzate le schede)...è una cosa incredibile se ci si pensa. Bisognerebbe tornare a pensare a giocare e non fare a gara a chi ce l'ha più lungo. Ma purtroppo mi rendo conto che questo processo non si può più fermare e quindi non si può più tornare indietro. Ormai sono questi i tempi.
Naturalmente il mio pensiero è un semplice pensiero personale scaturita da un po' di tristezza riguardo la situazione attuale.

Manp
23-04-2004, 20:38
Originariamente inviato da TheDarkAngel
hai ragione..
infatti queste schede video sono solo vendute a prezzi irrisori senza che ne venga banfata nessuna qualità dell'immagine :)

infatti questo non c'e' scritto sul sito di nvidia :)

"NVIDIA® CineFX™ 3.0 Technology
Powers the next generation of cinematic realism. Full support for Microsoft® DirectX® 9.0 Shader Model 3.0 enables stunning and complex special effects. Next-generation shader architecture delivers faster and smoother gameplay."

hai pienamente ragione...

infatti se tu la differenza a livello di qualità dell'immagine la vedi non comprerai mai una 6800...

se io non la vedo probabilmente invece prenderò in considerazione l'idea di comprare una 6800...

ripeto la mia idea, se le differenze le vedo considero... se non le vedo NON mi pongo nemmeno il problema di come, perchè, o grazie a quale dio pagano la scheda renderizza l'immagine...

:)

TheDarkAngel
23-04-2004, 20:39
Originariamente inviato da Manp
hai pienamente ragione...

infatti se tu la differenza a livello di qualità dell'immagine la vedi non comprerai mai una 6800...

se io non la vedo probabilmente invece prenderò in considerazione l'idea di comprare una 6800...

ripeto la mia idea, se le differenze le vedo considero... se non le vedo NON mi pongo nemmeno il problema di come, perchè, o grazie a quale dio pagano la scheda renderizza l'immagine...

:)

la differenza è macroscopica... non serve nemmeno ingrandire se per questo allora :)

Dumah Brazorf
23-04-2004, 20:58
Originariamente inviato da Manp
hai pienamente ragione...

infatti se tu la differenza a livello di qualità dell'immagine la vedi non comprerai mai una 6800...

se io non la vedo probabilmente invece prenderò in considerazione l'idea di comprare una 6800...

ripeto la mia idea, se le differenze le vedo considero... se non le vedo NON mi pongo nemmeno il problema di come, perchè, o grazie a quale dio pagano la scheda renderizza l'immagine...

:)

Beh bisogna dire a nVidia di mettere degli occhiali "sfocanti" nelle confezioni delle sue schede, così nessuno noterà le differenze e la compreranno. :D
A questo punto giochiamo senza filtri, driver settati su performace, della qualità non frega + a nessuno.
Scherzo ovviamente, ma la faccenda è molto triste.
Ciao.

Thunder82
23-04-2004, 21:04
Originariamente inviato da Dark Schneider
Ora invece è diverso, si agisce in un altro modo: molto spesso si cerca di andare allegerire il calcolo della GPU non facendo calcolare alcune cosette che l'occhio umano molto difficilmente può vedere. Ecco se è così a me va benissimo.

Sì, sono d'accordo con te se ciò viene fatto nei giochi e se non diminuisce la qualità dell'immagine, che lo facciano pure! Ma in un bench assolutamente NO, perchè un bench deve dare una misura della velocità della scheda in condizioni UGUALI per tutti, altrimenti non è un bench ma una farsa, non diventa un metodo di misura obiettivo sulle reali prestazioni della scheda. :)

TheDarkAngel
23-04-2004, 21:05
Originariamente inviato da Dumah Brazorf
Beh bisogna dire a nVidia di mettere degli occhiali "sfocanti" nelle confezioni delle sue schede, così nessuno noterà le differenze e la compreranno. :D
A questo punto giochiamo senza filtri, driver settati su performace, della qualità non frega + a nessuno.
Scherzo ovviamente, ma la faccenda è molto triste.
Ciao.

l'importante è fare MILLEEEE frames... il resto che ti importa? ;)

Dark Schneider
23-04-2004, 21:14
Originariamente inviato da Thunder82
Sì, sono d'accordo con te se ciò viene fatto nei giochi e se non diminuisce la qualità dell'immagine, che lo facciano pure! Ma in un bench assolutamente NO, perchè un bench deve dare una misura della velocità della scheda in condizioni UGUALI per tutti, altrimenti non è un bench ma una farsa, non diventa un metodo di misura obiettivo sulle reali prestazioni della scheda. :)


Si lo so, ma purtroppo è una questione d'interessi. A me in realtà non è che dispiace che certe cose lo si vedano nei benchmark...a me dispiace che i benchmark abbiano acquisito talmente tanto potere a causa dell'incremento degli interessi...tanto che parecchia gente ha iniziato a dimenticare che alla fin fine l'importante sono i giochi con cui divertirsi e non un punteggio. Mi sembra assurdo che si è arrivati a bocciare una scheda per dei punteggi per dirti, quando poi i giochi vanno.

Da come si è potuto capire ho un certo odio verso i benchmark!!:p

TheDarkAngel
23-04-2004, 21:23
Originariamente inviato da Dark Schneider
Si lo so, ma purtroppo è una questione d'interessi. A me in realtà non è che dispiace che certe cose lo si vedano nei benchmark...a me dispiace che i benchmark abbiano acquisito talmente tanto potere a causa dell'incremento degli interessi...tanto che parecchia gente ha iniziato a dimenticare che alla fin fine l'importante sono i giochi con cui divertirsi e non un punteggio. Mi sembra assurdo che si è arrivati a bocciare una scheda per dei punteggi per dirti, quando poi i giochi vanno.

Da come si è potuto capire ho un certo odio verso i benchmark!!:p

chi ha cercato di dare importanza ai benchmark?

Dark Schneider
23-04-2004, 21:33
Originariamente inviato da TheDarkAngel
chi ha cercato di dare importanza ai benchmark?

Semplice il mercato e i "media". Man mano che le schede accelleratrici hanno preso il largo sono aumentati interessi ed i bench sono diventati i strumenti che bocciano o promuovono una determinata scheda e che danno una buona o una cattiva immagine del prodotto.

Addirittura ci sono tante riviste cartacee che basano gli articoli-comparazioni con un singolo bench: quindi quella che va meglio è promossa, l'altra bocciata. La prima ha una buona immagine, la seconda una cattiva. Trovo ciò assurdo.

E' incredibile che un bench possa stroncare una scheda anche se poi ripeto...i giochi vanno.

TheDarkAngel
23-04-2004, 21:45
Originariamente inviato da Dark Schneider
Semplice il mercato e i "media". Man mano che le schede accelleratrici hanno preso il largo sono aumentati interessi ed i bench sono diventati i strumenti che bocciano o promuovono una determinata scheda e che danno una buona o una cattiva immagine del prodotto.

Addirittura ci sono tante riviste cartacee che basano gli articoli-comparazioni con un singolo bench: quindi quella che va meglio è promossa, l'altra bocciata. La prima ha una buona immagine, la seconda una cattiva. Trovo ciò assurdo.

E' incredibile che un bench possa stroncare una scheda anche se poi ripeto...i giochi vanno.

se non sbaglio non è stata nvidia a usare come cavallo di battaglia il 3dmark?

beh tra tutti i test se dovessi sceglierne uno direi proprio quello della qualità dell'immagine...
si parla di schede video alla fine... la loro funzione primaria è renderizzare una immagine decente o no?

pandyno
23-04-2004, 21:47
Originariamente inviato da Dark Schneider
Semplice il mercato e i "media".

Nessun media....;)

Semplicemente chi il mercato lo faceva in quel periodo ;)

Redvex
23-04-2004, 21:51
Prima di accusare di baro, ati farebbe prima a far uscire la sua scheda e poi confrontarla con la rivale e sputtanarla a quel punto... è inutile questa cosa.....mi sa tanto di "buttare le mani avanti"

Maury
23-04-2004, 21:56
Per me la qualità grafica ha la stessa importanza del frame rate, non faccio sconti da nessuna parte :)

Dark Schneider
23-04-2004, 21:58
Originariamente inviato da pandyno
Nessun media....;)

Semplicemente chi il mercato lo faceva in quel periodo ;)


Eh no...invece i media centrano eccome! ;)
Ed i bench hanno acquistato importanza quando le schede accelleratrici hanno preso il largo. DOPO una volta aver acquisito una determinata importanza e gli interessi sono aumentati i produttori hanno iniziato a dar a loro volta importanza ai bench. E' adesso c'è la situazione attuale in cui addirittura in articoli di riviste cartacee vengono utilizzati anche dei singoli bench per promuovere o bocciare una determinata scheda video. Assurdo.

pandyno
23-04-2004, 22:13
Originariamente inviato da Dark Schneider
Eh no...invece i media centrano eccome! ;)
Ed i bench hanno acquistato importanza quando le schede accelleratrici hanno preso il largo. DOPO una volta aver acquisito una determinata importanza e gli interessi sono aumentati i produttori hanno iniziato a dar a loro volta importanza ai bench. E' adesso c'è la situazione attuale in cui addirittura in articoli di riviste cartacee vengono utilizzati anche dei singoli bench per promuovere o bocciare una determinata scheda video. Assurdo.


no. ;)

Chi ha seriamente spinto su 3dmark non è stata nè 3dfx nè s3 nè veritè nè SiS nè i media (cosa intendi per media?): solo una ha spinto sui benchmark sintetici.
Per poi fare dietro front a 3/4 di sviluppo del 2003

Nelle riviste vi erano test di quake(OGL) quake2, incoming, turok, expandable ecc ecc
E si andava molto a sensazioni e a qualità visiva piuttosto che a numeri.

Il veritè ad esempio era un processore grafico lento, ma molto apprezzato per la qualità a video che proponeva al pari se non oltre quello offerto da 3dfx, il riva 128 invece lo guardavano in pochi ''più veloce del voodoo1, ma qualitativamente non all' altezza'' (epoca no benchmark)

come ha fatto la sua comparsa il T&L ecco che 3dmark 2000 diventa importante perchè unico mezzo per provarne le potenzialità e quindi le riviste in buona fede pubblicano i numeri, per cui la scheda che fa il punteggio più alto è più veloce.

3dmark 2003: tutti sappiamo come è andata ;)
con i driver approvati da futuremark (nessuna sostituzione shader) NV3X non si alza dai 2.000 punti ;)

Dark Schneider
23-04-2004, 22:38
Originariamente inviato da pandyno
no. ;)

Chi ha seriamente spinto su 3dmark non è stata nè 3dfx nè s3 nè veritè nè SiS nè i media (cosa intendi per media?): solo una ha spinto sui benchmark sintetici.
Per poi fare dietro front a 3/4 di sviluppo del 2003

Nelle riviste vi erano test di quake(OGL) quake2, incoming, turok, expandable ecc ecc
E si andava molto a sensazioni e a qualità visiva piuttosto che a numeri.

Il veritè ad esempio era un processore grafico lento, ma molto apprezzato per la qualità a video che proponeva al pari se non oltre quello offerto da 3dfx, il riva 128 invece lo guardavano in pochi ''più veloce del voodoo1, ma qualitativamente non all' altezza'' (epoca no benchmark)

come ha fatto la sua comparsa il T&L ecco che 3dmark 2000 diventa importante perchè unico mezzo per provarne le potenzialità e quindi le riviste in buona fede pubblicano i numeri, per cui la scheda che fa il punteggio più alto è più veloce.

3dmark 2003: tutti sappiamo come è andata ;)
con i driver approvati da futuremark (nessuna sostituzione shader) NV3X non si alza dai 2.000 punti ;)

Rispetto il tuo parere personale, ma non sono daccordo e dò il mio di parere personale che poi può essere condiviso o meno. ;)

Voglio ricordare che non esisteva solo il 3d mark, ma anche altri...mmm final reality ed altri.

Per di più aggiungo anche un elemento: Microsoft. In passato oltre a 3dfx anche altri produttori ad esempio cercavano di cimentrsi in librerie proprietarie. Le Glide son state stroncate da Microsoft che ha voluto imporre come libreria le sue DX...togliendo di mezzo le altre librerie(le Glide erano il top dell'ottimizzazione..un mito). Guarda caso con la scomparsa delle Glide ad esempio sono rimaste solo le DX come punto di riferimento...e Microsoft ad imporre la sua legge...ed oggi tutte a seguire il riferimento microsoft ed i bench basati sul riferimento microsoft. Sicuramente se le Glide fossero ancora vive...i benchmark non avrebbero senso. Sarebbe bellissimo avere delle librerie proprietarie in grado di far rendere al meglio la propria scheda. Ma naturalmente erano elementi pericolosi da togliere di mezzo...già perchè ruoterebbero molti meno interessi. Meno bench...meno interessi che si basano sui bench. Meno strumenti per poter publicizzare e...........guadagnare.

Non credere che gli interessi vengano creati da un produttore, ma sono creati da parecchi fattori. Gli interessi ricordati che cercano di farli in tanti. Le condizioni per gli interessi vengono creati in tanti. E' alla legge del mercato purtroppo..aimè non si scampa.


Ovviamente ad ognuno il suo parere. :)

Raven
23-04-2004, 23:06
Io ricordo le voodoo5... che vennero "stroncate" dalle riviste di tutto il mondo in quanto "fanno meno punti al 3dmark 2000" e non hanno il T&L rispetto alle Geffo2...

Col senno di poi:

- Le voodoo 5 nei giochi andavano di più
- Abbiamo visto tutti la grande utilità del T&L statico... (ma se non ce l'avevi eri un pezzente)

Thunder82
23-04-2004, 23:26
Originariamente inviato da Redvex
Prima di accusare di baro, ati farebbe prima a far uscire la sua scheda e poi confrontarla con la rivale e sputtanarla a quel punto... è inutile questa cosa.....mi sa tanto di "buttare le mani avanti"

Anche se la tua soluzione è migliore, te non accuseresti un'azienda che si gioca il mercato con te di concorrenza sleale se trucca i risultati di un benchmark che (purtroppo) da solo può decidere le vendite di un modello di scheda (perchè è così purtroppo, noi che ci interessiamo bene delle schede teniamo in considerazione tutti gli aspetti, ma uno che non se ne intende prende "quella che fa più punti al 3dmark")? Mi pare più che corretto quello che ha fatto ATi, indipendentemente dalle prestazioni di quello che sarà R420.

Dark Schneider
23-04-2004, 23:26
Originariamente inviato da Raven
Io ricordo le voodoo5... che vennero "stroncate" dalle riviste di tutto il mondo in quanto "fanno meno punti al 3dmark 2000" e non hanno il T&L rispetto alle Geffo2...

Col senno di poi:

- Le voodoo 5 nei giochi andavano di più
- Abbiamo visto tutti la grande utilità del T&L statico... (ma se non ce l'avevi eri un pezzente)


Ma infatti i fattori sono molti. Sta di fatto che se i bench hanno acquisito una certa (inutile) importanza questo è dato da più fattori purtroppo!! Io ad esempio li odio!! Fosse per me tornerei ai vecchi tempi.

prova
23-04-2004, 23:28
Originariamente inviato da Manp
hai pienamente ragione...

infatti se tu la differenza a livello di qualità dell'immagine la vedi non comprerai mai una 6800...

se io non la vedo probabilmente invece prenderò in considerazione l'idea di comprare una 6800...

ripeto la mia idea, se le differenze le vedo considero... se non le vedo NON mi pongo nemmeno il problema di come, perchè, o grazie a quale dio pagano la scheda renderizza l'immagine...

:)


Praticamente stai dicendo che la 6800 la possono comprare senza problemi i pivelli che manco si accorgono di differenze macroscopiche come quelle notate negli articoli citati.

Nessun problema: contento tu di buttare 500€ per un prodotto pacco, contenti tutti. ;)

alstare84
24-04-2004, 00:53
Da ricordare che le schede ke non disegnavano ciò ke non vedevi erano le kyro. Ottima tecnologia secondo me ma abbandonata xkè forse andava un pò contro alla "moda" del periodo tant'è ke nussuno ha più sviluppato giochi ke vi potessero girarci.
E cmq oramai sono le leggi del mercato a farla da padrona poichè se sfruttassero appieno le potenzialità dei chip anke dell'anno scorso, forse gente "cogliona" come me non dovrebbe comprarsi una scheda video (per non dire tutto il resto fosse solo per il sistema operativo) all'anno.
Purtroppo xò non ci posso fare nulla...
Saluti...:)

JENA PLISSKEN
24-04-2004, 01:22
Originariamente inviato da alstare84
Da ricordare che le schede ke non disegnavano ciò ke non vedevi erano le kyro. Ottima tecnologia secondo me ma abbandonata xkè forse andava un pò contro alla "moda" del periodo tant'è ke nussuno ha più sviluppato giochi ke vi potessero girarci.
E cmq oramai sono le leggi del mercato a farla da padrona poichè se sfruttassero appieno le potenzialità dei chip anke dell'anno scorso, forse gente "cogliona" come me non dovrebbe comprarsi una scheda video (per non dire tutto il resto fosse solo per il sistema operativo) all'anno.
Purtroppo xò non ci posso fare nulla...
Saluti...:)

Ma sbaglio o il tile architecure era incompatibile coi PS1 ??

Cmq...che tristezza:rolleyes:

yossarian
24-04-2004, 03:00
cos'avete contro i bench sintetici?
Per me sono utilissimi; certo, se ci si mette a guardare il numeretto finale o gli fps di wings of fury (tanto per citarne uno), allora si che non serve a niente (basta usare clipping planes in maniera opportuna per ottenere 350 fps anche con la 9800 XT :D ).
però, se si guardano altre cose, dai bench sintetici si riescono ad avere un mucchio di informazioni sulle architetture dei chip. Ad esempio, da uno di questi, forse ho scoperto che la 6800 Ultra non è una 16 pipeline ma una 12+4 pipeline; per qualcuno potrà non voler dire niente, per qualcun altro, invece, si.

;)

ATi7500
24-04-2004, 03:11
Originariamente inviato da yossarian
cos'avete contro i bench sintetici?
Per me sono utilissimi; certo, se ci si mette a guardare il numeretto finale o gli fps di wings of fury (tanto per citarne uno), allora si che non serve a niente (basta usare clipping planes in maniera opportuna per ottenere 350 fps anche con la 9800 XT :D ).
però, se si guardano altre cose, dai bench sintetici si riescono ad avere un mucchio di informazioni sulle architetture dei chip. Ad esempio, da uno di questi, forse ho scoperto che la 6800 Ultra non è una 16 pipeline ma una 12+4 pipeline; per qualcuno potrà non voler dire niente, per qualcun altro, invece, si.

;)

infatti si sta commentando il fatto ke la loro reale utilità viene per così dire "fraintesa" dall'utente medio.. :)


bYeZ!

Crisidelm
24-04-2004, 08:45
Originariamente inviato da alstare84
Da ricordare che le schede ke non disegnavano ciò ke non vedevi erano le kyro. Ottima tecnologia secondo me ma abbandonata xkè forse andava un pò contro alla "moda" del periodo tant'è ke nussuno ha più sviluppato giochi ke vi potessero girarci.
E cmq oramai sono le leggi del mercato a farla da padrona poichè se sfruttassero appieno le potenzialità dei chip anke dell'anno scorso, forse gente "cogliona" come me non dovrebbe comprarsi una scheda video (per non dire tutto il resto fosse solo per il sistema operativo) all'anno.
Purtroppo xò non ci posso fare nulla...
Saluti...:)

*cough cough* ehm, veramente in questo ultimo periodo si parla della buona possibilità che PowerVr rilasci il nuovo chip grafico entro l'estate, il Series5...che questo avvenga effettivamente o meno, non ho la palla di cristallo per dirlo con certezza, ma son certo che se esce avrà il supporto ai Ps e Vs 3.0, tra le altre cose... :)

MaBru
24-04-2004, 10:06
Originariamente inviato da Crisidelm
*cough cough* ehm, veramente in questo ultimo periodo si parla della buona possibilità che PowerVr rilasci il nuovo chip grafico entro l'estate, il Series5...che questo avvenga effettivamente o meno, non ho la palla di cristallo per dirlo con certezza, ma son certo che se esce avrà il supporto ai Ps e Vs 3.0, tra le altre cose... :)

Anch'io spero proprio che ce la facciano. :)

E di ieri la notizia che Intel ha preso in licenza da PowerVR la IP MBX per farne un chip destinato agli handheld e ai PDA. Forse abbiamo scoperto chi fabbricherà la serie5. ;)

http://www.beyond3d.com/forum/viewtopic.php?t=11449

Ritornando ai bench "truccati" spero proprio che siano solo problemi di gioventù dei driver, pereché una sana competizione può fare solo bene al mercato.

Certo che se dovessi spendere 550€ (mica bruscolini) e scoprire che la mia scheda per andare più veloce mi peggiora la qualità d'immagine mi incazzerei non poco...


X yossi

perché pensi che sia una 12+4? Cosa farebbe il quarto quad non parallelizzato come gli altri?

Crisidelm
24-04-2004, 10:14
Veramente che Intel abbia acquisito le licenze dell'MBX è una cosa vecchia di oltre un anno. E' che finalmente l'hanno implementato in un prodotto! :D Cmq il primo prodotto effettivametne in vendita che integra l'MBX è un navigatore prodotto dalla Hitachi per il mercato giapponese mi pare :)

Cmq sì Yossi, cosa ti fa pensare a 12+4 (anche se era una cosa un po' presumibile, dato che cmq la non Ultra ha 12 pipe).

Redvex
24-04-2004, 10:28
Originariamente inviato da Thunder82
Anche se la tua soluzione è migliore, te non accuseresti un'azienda che si gioca il mercato con te di concorrenza sleale se trucca i risultati di un benchmark che (purtroppo) da solo può decidere le vendite di un modello di scheda (perchè è così purtroppo, noi che ci interessiamo bene delle schede teniamo in considerazione tutti gli aspetti, ma uno che non se ne intende prende "quella che fa più punti al 3dmark")? Mi pare più che corretto quello che ha fatto ATi, indipendentemente dalle prestazioni di quello che sarà R420.

Sarà giusto solo se ati non barerà.....ma ti immagini se poi facesse la stessa cosa?

checo
24-04-2004, 11:45
Originariamente inviato da TheDarkAngel
la differenza è macroscopica... non serve nemmeno ingrandire se per questo allora :)


ecco qua un'altro con la vista bionica :rolleyes:
meno pugnette e giocare di più :D
e non dire che vedi le differenze di render ne 3dmark

checo
24-04-2004, 11:46
Originariamente inviato da checo
e non dire che vedi le differenze di render ne 3dmark


3dmark che tra l'altro ha valore per molta gente solo dalla versione 2003 ovvero da quando ati fa punteggi migliori, prima era un becnh falsato e balle varie vero? sei anche tu di quella schiera percaso ;)

MaBru
24-04-2004, 11:48
Originariamente inviato da checo
ecco qua un'altro con la vista bionica :rolleyes:
meno pugnette e giocare di più :D

Non ci capisco più niente.

Ma le pugnette non portavano alla cecità?:D

checo
24-04-2004, 11:58
Originariamente inviato da MaBru
Non ci capisco più niente.

Ma le pugnette non portavano alla cecità?:D


:rotfl:

cmq a taroccare bench ci vuole poco se a uno interessa il numeretto :D
esempio
http://www.tombraiders.it/public/Image_39.jpg
purtroppo sono cpu limited :O

checo
24-04-2004, 12:09
questa invece è la mia 6800 :rotfl:
http://www.tombraiders.it/public/Image_40.jpg

meno bench più giochi :cool:

pandyno
24-04-2004, 12:09
Originariamente inviato da checo
ecco qua un'altro con la vista bionica :rolleyes:
meno pugnette e giocare di più :D
e non dire che vedi le differenze di render ne 3dmark


Differenza visibile c' è adesso come in passato ;)

La figuraccia l' ha fatta nVidia dopo aver visto che non superava i 2000 punti al 2003 e dichiarando la totale inutilità dei benchmark sintetici, quando già diversi anni prima qualcun' altro aveva provato a dirlo ;)

Poi è ovvio che ci siano diverse ''correnti di pensiero''

1) A me basta che parte e gioco bene.
2) Io voglio vedere i miei 500€ sfruttati appieno e non voglio essere preso in giro.
3) E' vero, cheat, ma la differenza non è molta ''se po' fa''

checo
24-04-2004, 12:13
io sono propenso che se non vedi diffrenze di qualità nei giochi sto discorso non sta in piedi, se ne vedi allora si

poi se quella con qualità migliore va più piano uno sceglie quello che crede, se invece va di più chi produce l'altra ci fa na figuraccia :D

pandyno
24-04-2004, 12:18
Ecco tu appartieni al terzo caso ;)

con la 5900xt differenze a far cry se ne vede più di una, non tali da dire che è una presa per il sedere, ma si vede ;)

checo
24-04-2004, 12:26
Originariamente inviato da pandyno


con la 5900xt differenze a far cry se ne vede più di una, non tali da dire che è una presa per il sedere, ma si vede ;)

questo non lo so, ma ti credo, tra l'altro a me farcry fa cagare come gioco ;)

pandyno
24-04-2004, 12:26
Originariamente inviato da checo
questo non lo so, ma ti credo, tra l'altro a me farcry fa cagare come gioco ;)

Pure a me :D
ma questa non è una scusa.

TheDarkAngel
24-04-2004, 13:10
Originariamente inviato da checo
ecco qua un'altro con la vista bionica :rolleyes:
meno pugnette e giocare di più :D
e non dire che vedi le differenze di render ne 3dmark

forse non sono io con la vista bionica..
ma te miope :)
oppure semplicemente appartieni a quella schiera l'importante che c'e' scritto nvidia? :)

checo
25-04-2004, 10:30
Originariamente inviato da TheDarkAngel

oppure semplicemente appartieni a quella schiera l'importante che c'e' scritto nvidia? :)

appartengo alla schiera che non gioca col 3dmark e non si ferma a guardare il mipmap delle deture metre gioca.

checo
25-04-2004, 10:31
Originariamente inviato da TheDarkAngel
forse non sono io con la vista bionica..
ma te miope :)
oppure semplicemente appartieni a quella schiera l'importante che c'e' scritto nvidia? :)


cmq si possono vedere ste differenze?

TheDarkAngel
25-04-2004, 11:43
Originariamente inviato da checo
cmq si possono vedere ste differenze?

con un paio di occhi decenti :)

TheDarkAngel
25-04-2004, 11:45
Originariamente inviato da checo
appartengo alla schiera che non gioca col 3dmark e non si ferma a guardare il mipmap delle deture metre gioca.

infatti non ci sono nemmeno riferimenti nella mia sig sul 3dmark..
ne apro mai 3d a riguardo...
ne valuto mai una sk video guardando solo ed esclusivamente il 3dmark :)

Anonized
25-04-2004, 12:02
io dico solo che se anche la x800 farà meno frame al secondo della 6800U ma avrà realmente una qualità maggiore dell'immagine prenderò sicuramente ATI. E poi sembra che consumi di meno e che sia più "sottile" e facile da inserire in un XPC :cool:

TheDarkAngel
25-04-2004, 12:21
Originariamente inviato da Anonized
io dico solo che se anche la x800 farà meno frame al secondo della 6800U ma avrà realmente una qualità maggiore dell'immagine prenderò sicuramente ATI. E poi sembra che consumi di meno e che sia più "sottile" e facile da inserire in un XPC :cool:

la pro se mai ;)

checo
25-04-2004, 12:50
Originariamente inviato da TheDarkAngel
con un paio di occhi decenti :)

posta le immagini allora che poi gli occhi li trovo

TheDarkAngel
25-04-2004, 13:22
Originariamente inviato da checo
posta le immagini allora che poi gli occhi li trovo

basta guardare la prova di toms
non ci vuole molto :)

ballero
25-04-2004, 13:50
Originariamente inviato da TheDarkAngel
basta guardare la prova di toms
non ci vuole molto :)


che c'entrerebbe la prova di tom's col 3dmark03?

all'inizio del thread sono stati postati 2 link:
nel primo, quello della scalinata in farcry, i cheats c'entrano quanto i cavoli a merenda.
per il secondo link, quello del 3dmark, i 60.xx sono stati autorizzati dopo che futuremark ha analizzato il funzionamento del compilatore, dopo aver usato la free cam, etc ... cioe' dopo aver usato sistemi ben piu' sofisticati del fare 2 screen per poi cercare qualche differenza con la lente. :)
Anche David Baumann, guardando le immagini, ha detto che non gli sembrano affatto dei cheat

ma, in definitiva, c'è qualche motivo reale per dare addosso ad nvidia oppure, come penso io, questo thread e' solo per far polemica?

devil mcry
25-04-2004, 16:32
ma se i driver di nvidia sono in grado di ottimizzare pure i gioki x farli andare meglio , nn vedo il motivo di sta polemica. a quel punto la skeda sarebbe realmente + veloce delle ati e nn solo nei bech . nvidia a sempre prodotto driver ottimizzati , cosa ke ati fino a poco tempo fa nn faceva ....

se poi magari le texture nn siano belle come le ati e un altro discorso , ma ce cmq da dire ke nvidia a sempre preferito la velocità allla qualità .

checo
25-04-2004, 18:16
Originariamente inviato da TheDarkAngel
basta guardare la prova di toms
non ci vuole molto :)
che test ha fatto sulla qualità col 3dmark che non li trovo?

Adriano77
26-04-2004, 20:43
http://www.theinquirer.net/?article=15502


Anche inquirer afferma questo...

http://www.geek.com/news/geeknews/2...40426024897.htm

E leggete anche qui


A questo punto direi che Nvidia si sta scavando la fossa da sola... infatti e' proprio per questi problemi se ora la maggior parte della gente compra Ati... cioe' quando 1 anno fa usci' lo scandalo dei drivers truccati per la prima volta.
Cosi' si vuole dare il colpo di grazia da sola... MA COME E POSSIBILE vuole davvero suicidarsi ??? cavolo, smettila Nvidia o perderai anche i pochi clienti rimasti !!!!


Non avrei mai creduto Nvidia capace di farlo nuovamente...

evidentemente mi sbagliavo.

S@lemx
26-04-2004, 21:35
che Ati stia mettendo le mani avanti?

invece di accusare che si desse una mossa a far uscire stò benedetto r420:O

andreamarra
27-04-2004, 00:07
Premettiamo tutti una cosa: non tutti i consumer sono esperti, chi più chi meno, nell'ambito hardware. Di conseguenza molti credono ancora che la migliore scheda in commercio sia la geffo 4 (se vi fate un giro vi diranno questo molte persone), e che molti acquistano una scheda video dopo aver letto su (ad esempio) PC Professionale il bench X in cui la scheda Y va meglio di Z nel 3d merd2003.

Doipo questa premessa (a mio giudizio importante), passo al "problema" presunto del topic.

I test, che servono alla maggior parte dei consumer per scegliere una scheda piuttosto che l'altra, devono essere attendibili. Occorre che il banco di prova sia uguale per tutti, e anche soltano modificare una stronzatella che fa aumentare le prestazioni dell'1% è sbagliato. Definiamola "pubblicità ingannevole".

Io che sono più esperto rispetto a consumer (scusate, ma l'esame di marketing è alle porte... :D ) che non postano nè lurkano in questi generi di forum, non hanno minimamente idea di cosa sia effettivamente una scheda video. Non sanno ad esempio che una fx5900xt va peggio di una 9700 nelle applicazioni dx9 (che non sanno neanche cosa siano, minimamente).

Coloro che giustamente fanno notare che non importa se nvidia ha truccato (tutto ancora da vedere, non si sa mai nella vita -anche se i suoi trascorsi non mi lasciano molta speranza-) i driver per guadagnare alcuni punti con una perdita dell'immagine pressochè insignificante nei bench (ma mi sembra di avere capito anche in un gioco come Max Payne II), non capiscono però che a tutti gli effetti, se sarà confermata, la nvidia ha barato e per cui ha "ingannato" molti consumer ignari di tutti questi giochetti.

Io sono dell'idea che, anche se si tratta di un semplice e disprezzabile bench, per molti è la bibbia.

andreamarra
27-04-2004, 00:08
Originariamente inviato da S@lemx
che Ati stia mettendo le mani avanti?

invece di accusare che si desse una mossa a far uscire stò benedetto r420:O

A quanto si sa per vie traverse, dovrebbe esserci l'ennesima batosta nvidia... limitata, ma sempre scoppola sarà... [ripeto, stando a rumors decisamente affidabili, poi a me non importa più di tanto]

E in ogni caso r420 e nv40 usciranno quasi in contemporanea. Ati farà uscire il mostriciattolo il 5 maggio.

rubex
27-04-2004, 02:37
Date un okkio a questo THREAD (http://forum.hwupgrade.it/showthread.php?s=&threadid=663352&perpage=20&pagenumber=115) fine pag 115 inizio 116.

BYe

S@lemx
27-04-2004, 06:30
Non ci resta che aspettare e poi si deciderà di conseguenza ciò non toglie che questa sia cattiva pubblicità per nvidia.

Ma nvidia ha dato una spiegazione per queste accuse? se non lo ha fatto allora qualcosa che non và c'è:mad:

Adriano77
27-04-2004, 08:30
Nvidia non ha ancora risposto

Ed e' questo che mi fa preoccupare...

probabilmente gli scotta e non sanno piu come giustificarsi a questo punto...

Inoltre nemmeno futuremark sta rispondendo... forse dopo le minacce di cause legali dell'anno scorso e i casini che c'erano stati adesso ha le mani legate piu di prima.

Bah che mondo del cavolo , i soldi e le minacce legali minano l'imparzialita' delle persone.

R@nda
27-04-2004, 08:32
Manco le vendessi tu le schede oh?

ATi7500
27-04-2004, 08:33
Originariamente inviato da R@nda
Manco le vendessi tu le schede oh?

beh lui commentava (giustamente) un comportamento scorretto d nvidia (ke nn è la prima volta ke fa sti giochetti)
quanto basta per nn farmi comprare mai nvidia....


bYeZ!

Paoletta Corsini
27-04-2004, 08:36
Originariamente inviato da R@nda
Manco le vendessi tu le schede oh?
:rolleyes:

R@nda
27-04-2004, 08:44
Ma nemmeno le guardo più ste cose.....
Tuttavia proprio i commenti che leggo mi sembrano di chi le schede le produce piuttosto che di chi le compra.

Voglio dire....se io vedo che una scheda ha una qualità inferiore alla concorrenza mi limito a non comprarla.

Mi interessa poco sapere che Ati e Nvidia si scornano su queste cose per i loro interessi (appunto loro...e non nostri!)sono aziende
che da noi vogliono solo soldi.

Quindi ripeto....se ste manovre le noto io mi incazzo,se se le fanno
tra di loro e non si nota niente mi interessa ben poco.

Voi dite che i meno informati potrebbero cascarci e comprare la sk sbagliata perchè indotti dal 3mark03 e manovre scorrette?
E chi se ne frega?Mica li spendo io soldi.....mi informo apposta.

Preferisco guardare come vanno realmente le schede che infoiarmi su ste minchiate...

Adriano77
27-04-2004, 08:51
incredibile
facendo usare a NV40 gli shader che usa r300 il punteggio cambia in negativo, e spariscono gli artefatti con far cry.

Nvidia ha truccato i suoi driver non c'e' alcun dubbio...

leggete...

http://www.driverheaven.net/showthread.php?s=&threadid=44253

Paoletta Corsini
27-04-2004, 09:27
Originariamente inviato da R@nda
Ma nemmeno le guardo più ste cose.....
Tuttavia proprio i commenti che leggo mi sembrano di chi le schede le produce piuttosto che di chi le compra.

Voglio dire....se io vedo che una scheda ha una qualità inferiore alla concorrenza mi limito a non comprarla.

Mi interessa poco sapere che Ati e Nvidia si scornano su queste cose per i loro interessi (appunto loro...e non nostri!)sono aziende
che da noi vogliono solo soldi.

Quindi ripeto....se ste manovre le noto io mi incazzo,se se le fanno
tra di loro e non si nota niente mi interessa ben poco.

Voi dite che i meno informati potrebbero cascarci e comprare la sk sbagliata perchè indotti dal 3mark03 e manovre scorrette?
E chi se ne frega?Mica li spendo io soldi.....mi informo apposta.

Preferisco guardare come vanno realmente le schede che infoiarmi su ste minchiate...
Per usare il tuo francesismo, tutto questo discorso mi sembra una minchiata.

Adriano77
27-04-2004, 09:27
faccio notare che gli shader che esegue il radeon 9800 non sono shader ottimizzati, ma sono gli shader che ANDREBBERO eseguiti per identificare il gioco che li usa come DIRECTX 9 COMPLIANT...

Cosa vuol dire questo ?

Ve lo spiego io... vuole dire che NV40 non rispetta le specifiche directx 9 e utilizza un misto fra gli shader 2.0 e 1.1, in una sorta di modalita' MIXED.

Vi ricordate lo scandalo con HL2 durante la presentazione dello shader day di Ati ?

Beh avevano ragione loro quelli della valve, e Nvidia non ha risolto il problema con NV40.

BAH che schifo.

R@nda
27-04-2004, 09:31
Originariamente inviato da Paoletta Corsini
Per usare il tuo francesismo, tutto questo discorso mi sembra una minchiata.

Grazie....come dare dello stupido a chi sta dicendo quello che pensa.

Bha..

Paoletta Corsini
27-04-2004, 09:47
Originariamente inviato da R@nda
Grazie....come dare dello stupido a chi sta dicendo quello che pensa.
Scusa non ti ho risposto prima perchè stavo modificando la signature. Il discorso è semplice, ed è l'esatto opposto: sei tu che dai dello stupido a tutte quelle persone che vogliono capire come funziona il nuovo NV40.
Ma nemmeno le guardo più ste cose.....
Tuttavia proprio i commenti che leggo mi sembrano di chi le schede le produce piuttosto che di chi le compra.
I commenti sono di utenti PAGANTI che hanno il sacrosanto diritto di avere in mano quello per cui pagano, quindi se ci sono possibilità che i driver siano taroccati come già è avvenuto parecchie volte con il produttore californiano, ben vengano questi elementi.
Se tu non vuoi leggerli ci son altri duemila thread sulle schede video!
Voglio dire....se io vedo che una scheda ha una qualità inferiore alla concorrenza mi limito a non comprarla.
Tu vedi in che modo? acquistando e poi provando con i tuoi occhi, oppure guardando le recenzioni prima sui siti che fanno informazione o su un forum come questo formato da utenti PAGANTI?
Mi interessa poco sapere che Ati e Nvidia si scornano su queste cose per i loro interessi (appunto loro...e non nostri!)sono aziende che da noi vogliono solo soldi.
Veramente non sono loro interessi, ma NOSTRI, visto che i soldi li cacciamo fuori dai nostri bei portamonete.
Quindi ripeto....se ste manovre le noto io mi incazzo,se se le fanno tra di loro e non si nota niente mi interessa ben poco.
Quindi tu sei come il tipo al quale non importa che la moglie lo tradisca o meno, l'importante è che non lo venga mai a sapere. E ad ogni modo quegli screen non si notano?
Voi dite che i meno informati potrebbero cascarci e comprare la sk sbagliata perchè indotti dal 3mark03 e manovre scorrette?
E chi se ne frega?Mica li spendo io soldi.....mi informo apposta.
Ma che bel discorso, clap clap!
Preferisco guardare come vanno realmente le schede che infoiarmi su ste minchiate...
E meno male che ti davo dello stupido poco fa :rolleyes:

Red-Vox
27-04-2004, 09:56
premetto che son un pò ignorantello in materia (per quanto riguarda la tecnicità delle cose) :rolleyes:

ho letto un pò tutto il 3d ma nn ho capito bene come fà nvidia a "truccare" i driver cioè nn ci arrivo :(

qualcuno sarebbe così gentile da nn usare troppo linguaggio tecnico e farmi capire (magari anche per altri che legono e basta) come fà a usare driver "truccati"..cioè nn è shader 3.0 quello che si vede? ma un trucco? ma sto trucco sta nell'aver ritoccato le immagini o il trucco è proprio mentre si vedono in tempo reale?

sperando di nn disturbar la discussione, spero di capire questo gioco di "prestigio" eheheh :)

ciauz e buona giornata a tutti! :)

Jedi_Master
27-04-2004, 10:04
Originariamente inviato da R@nda
........per i loro interessi (appunto loro...e non nostri!)sono
aziende che da noi vogliono solo soldi.

Parole santissime!
:O

R@nda
27-04-2004, 10:20
Paola....il tuo discorso è giusto.
Solo che i toni da scoop giornalistici che si fanno non li sopporto.....perchè queste le considero cavolate commerciali
che non interessano noi ma direttamente le aziende che vendono.

Tutto qui......commentare queste notizie non significa interessarsi sul funzionamento della scheda....ma solo fare polemica su un discorso che a noi commercialmente non ci tocca nemmeno.

Insisto ancora,l'acquisto della scheda video non dipende da queste manovre (che faranno guadagnare si e no 200 punti al 3dmark03:rolleyes: ).

Come hai detto leggo le recensioni per capire quanto è interessante una scheda.....ma di questi trucchetti,bha...

Poi la mia idea sulle due sk la si conosce....io ho sempre preferito Nvidia.....pur senza accanirmi in discussioni di parte che non portano a nulla....
Ma comunque seguo sempre quello che succede nell'ambito sk video per vedere se si può cambiare in meglio.

Ecco la sensazione è che Ati questa volta possa essere finalmente competitiva su tutti fronti....nessuno escluso e non parlo solo di prestazioni pure e qualità...ma proprio complessivamente.
Adesso attendo l'uscita della scheda per vedere se realmente quello che dico sarà confermato....ma sicuramente non sceglierò
la mia sk video leggendo questo post.

Paoletta Corsini
27-04-2004, 10:32
Io invece sceglierò la scheda leggendo questo e tutti gli altri post, perchè l'obiettività e la correttezza son qualcosa che non voglio mai farmi mancare (anche se spesso non riesco :( ).
Ancor è presto per sparare una sentenza definitiva perchè:
- i driver sono beta o per lo meno spero vivamente che lo siano;
- devono implementare le feature che tanto mi hanno entusiasmato;
- non sappiamo (io si :D) le prestazioni del concorrente R420;
- pochi sample e poche recensioni, come test su cpu più performanti;
Però tirando fin qui una linea su quanto visto, affermo che questa NV40 non m'interessa ;)
Ma solo fare polemica su un discorso che a noi commercialmente non ci tocca nemmeno.
Continuo a non capire cosa intendi :confused:

R@nda
27-04-2004, 10:34
non sappiamo (io si ) le prestazioni del concorrente R420

Lo sappiamo anche noi:Prrr: (anche se non in via ufficiale).
A me interessano entrambe le schede.....però appunto la sensazione è che Ati abbia qualcosa in più.

Poi si vedrà...

Intendo non ci toccano commercialmente....perchè questi trucchetti come ho detto servono solo a far guadagnare qualche punto nei benchmark....per fare bella figura sulla concorrenza.
Ma scegliere se comprare una sk video o no su questa base è da....ehm...insomma una sk si giudica su altri fattori.

Paoletta Corsini
27-04-2004, 10:39
Originariamente inviato da R@nda
perchè questi trucchetti come ho detto servono solo a far guadagnare qualche punto nei benchmark....per fare bella figura sulla concorrenza.
Ma scegliere se comprare una sk video o no su questa base è da....ehm...insomma una sk si giudica su altri fattori.
Invece sbagli, se tutto ciò fosse confermato, è sulla qualità che nVIDIA frega i clienti!

R@nda
27-04-2004, 10:50
Originariamente inviato da Paoletta Corsini
Invece sbagli, se tutto ciò fosse confermato, è sulla qualità che nVIDIA frega i clienti!

Ma chi frega?L'utente che compra la scheda all'Auchan?:D

Con tutto il rispetto lo fregherebbe comunque vendendogli una fantastica 9200se da ben 256mb....oppure una velocissima Fx5600 lissia:D

Solita solfa insomma......chi si informa non viene fregato,chi non si informa si....vale in questo campo come in qualsiasi altro mi sembra.

Ah spetta.....naturalmente non pensare che io sia favorevole a queste manovrine eh?Percarità....ma vorrei solo dargli il suo peso e non di più.

street
27-04-2004, 11:24
Originariamente inviato da R@nda

Insisto ancora,l'acquisto della scheda video non dipende da queste manovre (che faranno guadagnare si e no 200 punti al 3dmark03:rolleyes: ).



Il problema non sono i 200 punti nel 3dmark, ma i 20 fps di differenza in farcry (su cui gia da subito c' erano state perplessità per la resa grafica), a detta di alcuni causata da bug dei drivers, ma se fosse vero, e sottolineo il SE, vorrebbe dire che la cosa non é un bug (visto che la vedo una cosa deliberata se invece con il code della r300 si vedono perfetti ma con un calo di prestazioni) ma una vera e propria scorrettezza.

Bada bene, non nei confronti dell' utente disinformato o dell' ati, ma di chiunque, perché poi i drivers sono quelli, e se non é questione di bug o ti affidi a gente come OMEGA.

Nell' ultima ipotesi, però, gia una volta nvidia aveva minacciato legalmente omega per farlo smettere di creare driver ottimizzati per nvidia. Se ora tirasse fuori driver che fanno girare gli shader come dovrebbero ma a costo di rpestazioni minori dubito che nvidia lo lasci fare senza problemi.

R@nda
27-04-2004, 11:33
Ho risposto anche nel thread ufficiale......il motivo per cui FarCry rallenta non è un cheat....ma solo perchè va in FP32.(contro i FP 24 di Ati).
Mentre per quanto riguarda la qualità....sempre nell'altro post è già stato spiegato da chi di competenza che il problema sta nei driver beta (questo lo sapremo solo più avanti).

E' ben altra cosa rispetto a scalare il Mipmap per guadagnare 200 punti in più in un bench.

E anzi....per essere un ful Fp32 la scheda va pure bene e con i filtri andrà anche meglio.

Questo per dire che i cheat non centrano niente.....e anzi confermano ancora di più il fatto che queste discussioni tra le altre cose creano anche confusione.

Occhio a tirare conclusioni sbagliate,è facile.

Raven
27-04-2004, 11:40
uhè... stateve bbbboni! :O

Adriano77
27-04-2004, 11:42
Ma quali conclusioni sbagliate

Hai i fatti davanti agli occhi randa

Basta leggerli, oltretutto Nvidia non e' insospettabile... poiche' ha gia' commesso nel recente passato "ottimizzazioni" a discapito della qualita' video...


Comunque
Se non vuoi capire perche' sei un fan Nvidia allora il problema e' tuo...

Raven
27-04-2004, 11:51
Originariamente inviato da Adriano77
Comunque
Se non vuoi capire perche' sei un fan Nvidia allora il problema e' tuo...


:rolleyes:

... non mi piace ripetermi... STOP FLAMES! :muro:

R@nda
27-04-2004, 11:55
Originariamente inviato da Adriano77
Ma quali conclusioni sbagliate

Hai i fatti davanti agli occhi randa

Basta leggerli, oltretutto Nvidia non e' insospettabile... poiche' ha gia' commesso nel recente passato "ottimizzazioni" a discapito della qualita' video...


Comunque
Se non vuoi capire perche' sei un fan Nvidia allora il problema e' tuo...

Guarda proprio tu.....secondo me comprendi tecnicamente la metà di quello che hai letto e ti sei costruito le tue conclusioni.
Continua pure così se vuoi......chi di competenza sa di cosa sta parlando.

Io se una cosa non la comprendo chiedo a chi ne sà di più (e qui gente in gamba ce n'è...e mi levo subito da questa lista poichè ho solo da imparare da queste persone)non faccio commenti da scoop come fai tu senza approfondire la cosa.

x Raven

Io sono sempre buono

:D

IlBestio
27-04-2004, 13:20
Ma sto Tarocco vale per tutte le schede nivida Fx o solo per la 6800 ?

Adriano77
27-04-2004, 13:26
bestio per le geforce FX ci fu uno scandalo simile gia 1 anno fa...
con il 3dmark ecc ecc

Comunque da quando usci' NV30 da cui derivano tutte le FX Nvidia ha incominciato a usare questi trucchetti squallidi...
Secondo me e' l'architettura NV30 partita male che sta condizionando tutto... anche la 6800 ne porta inevitabilmente i bachi, come le vecchie geforceFX.

adesso si sta parlando della 6800 perche sono test per la 6800

Ma ormai io non mi fido piu di Nvidia, una compagnia che usa simili trucchi per ben 2 volte in un anno non avra' mai piu sicuramente la mia fiducia.

Poi il mondo e' libero, e le persone sono libere di scegliere.

Ognuno prenda le proprie decisioni con serenita'

io chiudo qui

adieu

Athlon 64 3000+
27-04-2004, 13:37
se questa cosa dei driver truccati sarà vera sta sicuro che Nvidia non vedrà mai più una lira da me e sarebbe la seconda volta che fa un bastardata del genere e a me queste cose non piaciono e mi orienterò sicuramente su ATI con la X800Pro.

MaBru
27-04-2004, 13:40
Originariamente inviato da Athlon 64 3000+
se questa cosa dei driver truccati sarà vera sta sicuro che Nvidia non vedrà mai più una lira da me e sarebbe la seconda volta che fa un bastardata del genere e a me queste cose non piaciono e mi orienterò sicuramente su ATI con la X800Pro.

Prima di trarre le conclusioni aspettiamo i driver ufficiali e certificati.

Custode
27-04-2004, 13:50
Ummmhhh...il discorso è un pò complesso:

da un lato, si sta parlando di schede da 550-600 Euro di costo, schede che vengono comprate solo da chi è un vero esperto o appassionato del settore, dubito che chi compra all'Auchan vada per simili acquisti. In quest'ottica il presunto discorso delle prestazioni truccate ha un peso -sempre ammesso che sia vero, si parla solo di ipotesi e congetture per ora-, perchè chi fa un simile acquisto, sa cosa sta comprando, solitamente non è uno sprovveduto.
Ma è anche strano, proprio per lo stesso motivo, che Nvidia voglia baggianare con trucchetti simili proprio chi sprovveduto non è:
uno che spende uno stipendio per una scheda video è sicuramente ben imformato, segue forum, legge, si tiene aggiornato, è paradossale che Nvidia cerchi di fregare proprio chi è più sveglio e attento a queste cose.

Dall'altro tra un pò arriveranno quelle che io definisco le "schede vere", cioè quelle che hanno un effettivo riscontro commerciale, con prezzi non superiori ai 300 Euro (comunque non bruscolini...), quelle che vendono e fanno guadagnare: è con tali schede che bisognerà valutare attentamente le prestazioni, perchè saranno quelle che compreranno la maggior parte di noi.
Quindi a me frega poco o niente che la 6800 Ultra sia "lenta" o usi dei "cheat": interessa che la sorellina minore e la controparte ATI sulla stessa fascia abbiano il giusto rapporto prezzo-prestazioni non inficiato da bug, cheat, driver tarocchi o carenze tecniche varie.

Ciao.

Athlon 64 3000+
27-04-2004, 14:22
guarda che io ho fatto solo delle supposizioni,quello che ho scritto sono solo supposizioni e ho solo detto quello che farò se tutto quello su NV40 si dimostrerà vero.Cosa ancora tutta da verficare.

street
27-04-2004, 15:01
e vorrei far presente a r@nda che se nv40 non é capace di andare velocemente con i 2.0 non é colpa di ATI... visto che come é scritto sempre in quel 3d non é che mettendo l' id del r300 viene eseguito codice ottimizzato per ATI, viene semplicemente escluso il path misto 1.1-2.0 e viene eseguito solo il codice 2.0 (dove comunque va 7 fps piu della 9800 xt).
E vedere questa "ottimizzazione" su una scheda che si fregia dei ps 3.0 :rolleyes:

Quindi, non é questione di drivers buggati (a quanto dice l' articolo) né di fp24-fp32: é questione che i bench che sono usciti su FAR CRY e non su 3dmark sono volutamente a minor qualità per far vedere che la scheda va piu veloce della 9800.
Peccato che la 9800 usi in quei bench i 2.0 e nv40 sembra di no.

Se poi nv40 ha bisogno di calcolare in fp32 per rendere al pari visivamente di ati, questo non é un problema che dovrebbe tangere l' utente finale. E' una scelta diversa delle due case. Quando fp32 darà risultati diversi al 24, nvidia si troverà avvantaggiata, al momento attuale é più veloce comunque della ormai vecchia generazione ati, e alla presentazione hanno preferito distanziare di molto in fps la 9800xt su un titolo all' avanguardia negli shaders, ricorrendo però ad un ibrido 1.1 - 2.0 che però mostra i suoi limiti.

R@nda
27-04-2004, 15:24
Mi sa che non hai capito come funziona l'NV40:)

Va in FP32 bit perchè o va così o va in FP16....e basta.

Ati va in FP24 perchè può andare così e basta.

FarCry riconosce l'Nv40 come NV3X perchè è stato programmato
per queste schede.
Inoltre mancano le DX9c senza le quali i PS3.0 non funzionano come dovrebbero.
Tralasciando anche i driver allo stato beta.

Questo non per difendere Nvidia....che leggendo nell'altro post mi sa che becca mazzate anche stavolta....ma solo per dire le cose come sono.

street
27-04-2004, 15:28
Quello l' avevo capito. Oltre all' fp16-32 però come diceva yossarian si tratta anche di shader replacement, quindi alcuni shader 2.0 sono tolti in favore di quelli 1.1 (piu semplici e quindi piu veloci).

E ripeto il mio parere: se nvidia ha scelto fp32 e ati fp24, per poi avere il risultato visivo identico, non se ne puo fare una colpa ad ati. Ed il fatto che i bench usciti su fc siano a fp 16/32 e ps 1.1-2 misti non la vedo comuqnue un qualcosa di casuale.
Soprattutto perché i tecnici nvidia, tanto bravi a fare i drivers, non capisco come abbiano allora fatto a fare tali bug su quello che poi é il cavallo di battaglia come gioco dx9.0 al momento.
Non lo hanno provato? non sono in contatto coi programmatori? oppure hanno volutamente chiuso un occhio parlando di bug (risolvibili cmq mettendo [r300] come identificativo della scheda :asd: )

----------------------
Modifico perché ho scritto prima della tua modifica :)

Il testo precedente era:
Cosa intendi?

In effetti non sono un programmatore ma un utente finale, mi spieghi cosa hai capito tu?

R@nda
27-04-2004, 15:30
Ok....secondo te in Nvidia lo hanno fatto apposta?

E che sono Suicidi volontari?Voglio dire,tutti non aspettanto altro che questo per sbranarla.

Non può essere la cosa da imputare a dei drivers beta?
Al fatto che mancano le Dx9c?
O che FarCry non riconosce la scheda come dovrebbe?

Sulla questione per cui Nvidia non abbia fatto una sk Fp24 me lo chiedo anche io....ma chi lo sa perchè hanno scelto così?

valgono le cose ormai stradette aspettiamo che entrambe siano sul mercato con driver mautri....e con le Dx9c (se si sbrigano:rolleyes: ) e poi si giudicherà come si deve le due schede.

Una mezza idea di come andranno le cose mi sà che ormai si intravede no?
Poi chi lo sa...

street
27-04-2004, 16:18
In effetti forse ci siamo male interpretati entrambi.

Vorrei sperare che nvidia non ci sia ricascata (anche ati ad onor del vero non é che sia stata sempre un angioletto - quak docet), però l' impressione ed il sospetto ci sono.

overmind
27-04-2004, 17:18
"quak" se nn ricordo male è stato presente solo su una versione beta dei driver, quindi il cheat mi sembra di portata un po' diversa...
cmq sia io volevo comprarmi un NV40 ma.... mi terrò la mia 9800pro aspettando x8000 xt mi sà :D

Thunder82
27-04-2004, 17:23
Originariamente inviato da street
In effetti forse ci siamo male interpretati entrambi.

Vorrei sperare che nvidia non ci sia ricascata (anche ati ad onor del vero non é che sia stata sempre un angioletto - quak docet), però l' impressione ed il sospetto ci sono.

Sì, però ATi dopo lo scandalo quack.exe è rientrata in carreggiata, invece qua mi pare che nVidia sia proprio recidiva...