View Full Version : Una nuova patch per 3D Mark 2003
Redazione di Hardware Upg
12-11-2003, 09:14
Link alla notizia: http://news.hwupgrade.it/11198.html
Futuremark rilascia un aggiornamento per il benchmark 3D Mark 2003, mirante a limitare gli effetti di ottimizzazioni driver indesiderate
Click sul link per visualizzare la notizia.
Alberello69
12-11-2003, 09:19
Ati si riconferma n. 1
...ma non temete...tra un po' i nuovi detonator che usciranno risolveranno il problemuccio...e poi la versione 350....e poi il giro si ripete all'infinito
poveri noi.....è un mondo difficile:mc:
nVidia continua ad "ottimizzare" i driver come niente fosse...forse gli sembrerà normale
E qui ci vuole
QUELLI DI NVIDIA SONO SEMPRE STATI E CONTINUANO AD ESSERE DEI GRAN BASTARDI !
E pensare che c'è gente che si è comprata le skede nvidia sperando in queste cosidette "ottimizzazioni", in pratica crede che con il tempo vadano più veloci solo per i driver mentre ormai hanno già spremuto il massimo e tutto quello che aggiungono sono solo imbrogli.
Sono veramente disgustato :mad: :mad: :mad:
Se non vengono raggiunte le prestazioni massime con alcuni programmi può esserci un bug nei driver ok.
Ma se i driver non hanno bug le prestazioni sono 100% dipendenti dall'hardware
Per contro andare più veloci a discapito della qualità per di più aggravato dal fatto che si tratta di programmi usati come benchmark per dare la valutazione di un prodotto è una truffa bella e buona ed andrebbe denunciata.
Attila_fdd
12-11-2003, 09:24
che ladri penso non cambieranno mai! Poi che senso ha fare i bench, bisognera provare sempre 2 schede prima di comprarle?
ma non capisco (perke seguo da poco)
è nVidia ke rincorre 3dMark ottimizzando i driver per alzare gli score
o
é 3dMark ke rincorre per disottimizzare i driver nVidia
???
p.s.
poseggo un ATI9700pro
in quasto momento l'nvidia sta a fa un po' schifo...pensasse a fare gpu migliori più che cercare di recuperare l'irrecuperabile...
poi in fondi lfx non poi tanto male è ati che a fatto un mostro....:)
Secondo me MadCow ha posto un interessante quesito.
Alla fine, se hai un hw potente ma non i driver x usarlo, a che ti serve? Le 2 cose devono andare di pari passo.
Bisognerebbe capire di che natura sono le ottimizzazioni di nVidia e se valgono anche x i giochi oltre che x 3dMark, xché in tal caso sarebbe 3dMark che bara...
OK, è più probabile che le ottimizzazioni si applichino solo a 3dMark, ma non è detto a priori.
[TROLL MODE ON]
ATI invece di investire in ca@@@@e come lo sviluppo di chip performanti, ha investito nelle bustarelle date ai vari sviluppatori di giochi e benchmark, infatti davanti agli uffici di ATI c'è stato un certo viavai sospetto di gente appartenente alle varie softwarehouse ed un mio amico bancario mi ha confermato che ci sono stati cospicui trasferimenti di denaro da conti cifrati nelle isole Kaiman riconducibili ad ATI a conti sempre cifrati in Svizzera riconducibili a varie softwarehouse.
[TROLL MODE OFF]
:) ;) :D :p :eheh: :rotfl:
magic carpet
12-11-2003, 09:47
3Dfx RULES!!!
halduemilauno
12-11-2003, 09:50
http://www.hwupgrade.it/articoli/931/19.html
qui il 3dmark2003 non c'è.
Alberello69
12-11-2003, 09:56
massì...alla fine io credo che un buon 50% delle prestazioni dipenda dalle ottimizzazioni!
vedi giochi Xbox ecc..
dovrebbero cominciare ad ottimizzare meglio i giochi anzichè i benchmark!
ah no? e questo alura cos'è?
http://www.hwupgrade.it/articoli/931/8.html
Originariamente inviato da pg08x
E qui ci vuole
QUELLI DI NVIDIA SONO SEMPRE STATI E CONTINUANO AD ESSERE DEI GRAN BASTARDI !
Ci vuole? Ci vuole!? Ci vuole che tu pensi prima di chiacchierare, e lo stesso faccia chi dice che un'azienda è composta da "bastardi" o simili. Le aziende tirano TUTTE a far soldi, nessuno regala niente, è chiaro o no? E quando uno ha speso miliardi per una cosa che deve far guadagnare, fa di tutto per guadagnare, perché se no ci rimette le penne.
NVidia non è meglio di Ati, sol oche Ati per ora non s'è trovata nel bisogno di fare una porcata simile. E se ci fosse 3dfx nei panni di Nvidia,, che tutti osannano come la madre Teresa del 3D, probabilmente farebbe lo stesso.
Se non vengono raggiunte le prestazioni massime con alcuni programmi può esserci un bug nei driver ok.
Ma se i driver non hanno bug le prestazioni sono 100% dipendenti dall'hardware
MA QUANDO MAIIIII!! Io posso svilupparti una procedura perfettamente funzionante, quindi senza bachi, che però è più lenta di un'altra che fa la stessa cosa ma in modo diverso. Eccp cosa è l'ottimizzazione: trovare il modo per fare la stessa cosa più velocemente di quando viene fatto attualmente.
Togliere i bachi è un'altra cosa!
Per contro andare più veloci a discapito della qualità per di più aggravato dal fatto che si tratta di programmi usati come benchmark per dare la valutazione di un prodotto è una truffa bella e buona ed andrebbe denunciata.
Ecco, su questo sono d'accordo con te, poiché è un modo per far credere che il proprio sistema è più veloce perché è migliore mentre è solo perché NON FA alcune operazioni.
Brizius78
12-11-2003, 10:02
"dovrebbero cominciare ad ottimizzare meglio i giochi anzichè i benchmark!"
ottimizzare giochi per console vedi Xbox è un conto ottimizzare i giochi per pc è tutto un'altra cosa
blubrando
12-11-2003, 10:16
il rpblema secondo me no è tanto l'ottimizzazione ma il come vengono ottimizzati. se per migliorie mi si dice che il cdice dei driver è stato riscritto rendendo tutto il più snello,migliorando le prestazioni con l'appianamento dei colli di bottiglia hardware allora si. ma se mi si dice che le migliorie si hanno perchè porzioni di poligoni che dovrebbero essere rapprensentati vengono trattati come se non ci fossero evitando l'appesantimento dell'hardware ....beh...so già da quale parte schierarmi. comunque noto un certo asti fra nvidia e futuremark. In passato le cosidette "ottimizzazioni" erano normali,adesso invece sono foriere di polemiche e flame
Guarda, nessuno è santo e nessuno è ladro. Ma se devo dire chi è più ladro o bastardo mi viene in mente più nVidia che ATi, q credo che qui saranno tutti daccordo con me.
Quindi puoi ben capire che risulti facile buttare tutto addosso a nVidia.
Inoltre siccome fa una campagna pubblicitaria talmente promettente e spinta, risulta facile ILLUDERSI per prestazioni che alla fine non ci sono, a causa di un progetto nato male e FORZATAMENTE portato avanti fino alla spremitura completa.
Guarda solo l'ultima recenzione di 5700 contro 9600...togli tutti i bench, togli tutti i giochi che presentano un logo di nVidai o ATI, togli tutti i giochi DX8 o 8.1 e resta solo Tomb Rider...puoi vedere da solo il risultato.
Alal luce di questo dimmi tu se per 250 euro mi compro una 5700 o una 9600. Dimmi se chi ha comprato una 5700 sperando in driver migliori non si sente tradito o disilluso... dimmi tu con che spirito uno che ha la 5900 ULTRA pagata col sangue, si compra Half Life 2 sapendo che su una misera 9600 XT che costa la metà gira meglio...
Originariamente inviato da Toc
Ci vuole? Ci vuole!? Ci vuole che tu pensi prima di chiacchierare, e lo stesso faccia chi dice che un'azienda è composta da "bastardi" o simili. Le aziende tirano TUTTE a far soldi, nessuno regala niente, è chiaro o no? E quando uno ha speso miliardi per una cosa che deve far guadagnare, fa di tutto per guadagnare, perché se no ci rimette le penne.
NVidia non è meglio di Ati, sol oche Ati per ora non s'è trovata nel bisogno di fare una porcata simile. E se ci fosse 3dfx nei panni di Nvidia,, che tutti osannano come la madre Teresa del 3D, probabilmente farebbe lo stesso.
Se tu non sei potenzialmente un TRUFFATORE non truffi neanche se in quel momento gli affari non ti vanno come vorresti.
Il bastardi era diretto alla dirigenza nvidia che decide e promuove queste porcate.
MA QUANDO MAIIIII!! Io posso svilupparti una procedura perfettamente funzionante, quindi senza bachi, che però è più lenta di un'altra che fa la stessa cosa ma in modo diverso. Eccp cosa è l'ottimizzazione: trovare il modo per fare la stessa cosa più velocemente di quando viene fatto attualmente.
Togliere i bachi è un'altra cosa!
Posso capire su un db se scrivi una 'select' porcata o se programmi con i piedi ma a certi livelli è considerato un bug anche un tempo di elaborazione troppo elevato.
Soprattutto se scrivi drivers usi C ed anche assembly, hai tutte le specifiche dell'hardware che è quello e non cambia e se non scrivi codice buono da subito sei out.
A posteriori può esserci sembre un margine di ottimizzazione, magari sulle dimensioni del codice o sulla velocità con particolari processori ma siamo nell'ordine dei pochi punti percentuali... altrimenti sei stato un cane prima !
Avete mai sentito che cambiando i drivers di un controller raid le prestazioni aumentino del 200% ?
E' una presa per il cu.. bella è buona
Non confondiamo
Completamente Diverso è il lavoro degli sviluppatori di giochi che devono fare qualcosa di compatibile con molte piattaforme diverse ed hanno da rispettare dei tempi di consegna (e poi regolarmente non ci riescono)
:mad:
Con tutto il rispetto ragazzi ma vi prendono in giro...
E' come se domani Via uscisse con nuovi drivers e tutti i possessori di schede madri con chipset via avessero la CPU che va più veloce del 50% ed i dischi che decollano.
Ragazzi ma voi quando comprate una scheda video vi basate ancora sui benchmark sintetici? E soprattutto sul 3dmark03 che vorrebbe simulare un vero motore grafico dx9, ma è uscito mesi prima di un qualsiasi gioco dx9! Personalmente mi baso sui giochi, e cerco sempre di scegliere la scheda che è più equilibrata (tenendo conto della fascia di prezzo). Complimenti quindi alla redazione di HWU per la scelta di eliminare 3dmk03 dalle prove delle schede video!
pipozzolo
12-11-2003, 10:37
Originariamente inviato da pg08x
...se non scrivi codice buono da subito sei out.
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
L'unico gioco veramente ottimizzato che ho visto negli ultimi anni è stato Max Payne 2.
Per il resto, dato che facciamo a gara ad avere la scheda più potente, i programmatori se ne sbattono, tanto se non ti funziona fluido puoi sempre comprarti la scheda video o il processore più potente....
:Puke:
Perchè in alcuni giochi le schede Ati stracciano Nvidia? secondo me, anche perchè Ati ha fatto uscire la prima scheda dx9 e quindi i programmatori hanno sviluppato su quelle!
Originariamente inviato da Wonder
Guarda, nessuno è santo e nessuno è ladro. Ma se devo dire chi è più ladro o bastardo mi viene in mente più nVidia che ATi, q credo che qui saranno tutti daccordo con me.
Quindi puoi ben capire che risulti facile buttare tutto addosso a nVidia.
Inoltre siccome fa una campagna pubblicitaria talmente promettente e spinta, risulta facile ILLUDERSI per prestazioni che alla fine non ci sono, a causa di un progetto nato male e FORZATAMENTE portato avanti fino alla spremitura completa.
Guarda solo l'ultima recenzione di 5700 contro 9600...togli tutti i bench, togli tutti i giochi che presentano un logo di nVidai o ATI, togli tutti i giochi DX8 o 8.1 e resta solo Tomb Rider...puoi vedere da solo il risultato.
Ho detto quello che ho detto non perché penso che Nvidia non stia facendo una porcata: la sta facendo, e pure grossa! L'ho scritto perché dal dire X è bastarda noto che si passa in un batter d'occhio a santificare Y: sono tutti uguali, hanno in gioco milioni di dollari e nessuno di loro eviterà di fregarci se questo permetterà di non fallire o cmq d'avere perdite tanto elevate da mette a rischio l'indipendenza (ergo, acquisizione da parte di altra ditta).
Ati adesso si comporta bene (almeno fino a che non si dimostra il contrario) solo perché ha fatto una scheda ottima nel momento in cui Nvidia ne ha sviluppata una solo buona (perché anche NV30 è buono, in quanto va cmq più della 4600), e quindi non all'altezza del confronto.:)
Alal luce di questo dimmi tu se per 250 euro mi compro una 5700 o una 9600. Dimmi se chi ha comprato una 5700 sperando in driver migliori non si sente tradito o disilluso... dimmi tu con che spirito uno che ha la 5900 ULTRA pagata col sangue, si compra Half Life 2 sapendo che su una misera 9600 XT che costa la metà gira meglio...
Hai ragione a dire che siccome i soldi ce li sudiamo non è giusto che ce li facciano sprecare buttandoci fumo negli occhi, ma dimmi una cosa: io non so che lavoro fai, ma mettiamo che tu non capisca un'h di automobili e che ne debbacomprare una; cosa fai, stai a guardare le pubblicità alla tv e nei giornali per una settimana e poi prendi la macchina della quale hanno fatto la pubblicità migliore? Sappiamo tutti benissimo che nessuno dice male dei propri prodotti! Io ogni volta che devo comprare una cosa che richiede un investimento piuttosto ingente faccio una marea di ricerche per vedere i confronti e per capire cosa pensa la gente che già ha il prodotto che voglio comprare.
L'ho fatto per gli sci, e mi sono trovato ai piedi due missili, l'ho fatto a suo tempo per le schede video, per la piattaforma del pc, per la telecamera..ci vuole tempo, ma IMHO se tieni ai tuoi soldi lo devi anche dimostrare , e lo si fa cercando il modo per capire qual'è il migliore investimento.
No?
Paolo Corsini
12-11-2003, 10:42
Originariamente inviato da pg08x
E qui ci vuole
...snip
Ovviamente l'unico modo che hai per esprimere le tue idee in merito a questa notizia è quello di insultare della gente dietro ad un monitor?
Che troll
Originariamente inviato da pipozzolo
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
L'unico gioco veramente ottimizzato che ho visto negli ultimi anni è stato Max Payne 2.
Per il resto, dato che facciamo a gara ad avere la scheda più potente, i programmatori se ne sbattono, tanto se non ti funziona fluido puoi sempre comprarti la scheda video o il processore più potente....
:Puke:
Perchè in alcuni giochi le schede Ati stracciano Nvidia? secondo me, anche perchè Ati ha fatto uscire la prima scheda dx9 e quindi i programmatori hanno sviluppato su quelle!
Ripeto quanto scritto prima. Non confondiamo
Completamente Diverso è il lavoro degli sviluppatori di giochi che devono fare qualcosa di compatibile con molte piattaforme diverse ed hanno da rispettare dei tempi di consegna (e poi regolarmente non ci riescono)
Originariamente inviato da Paolo Corsini
Ovviamente l'unico modo che hai per esprimere le tue idee in merito a questa notizia è quello di insultare della gente dietro ad un monitor?
Che troll
Caro Paolo. Era diretto alla dirigenza di nvidia e se dovessi aver a che fare con loro non avrei alcun problema a dirglielo in faccia.
Complimenti quindi alla redazione di HWU per la scelta di eliminare 3dmk03 dalle prove delle schede video!
L'hanno appena fatto nell'ultima recensione:
http://www.hwupgrade.it/articoli/931/8.html
Innanzi tutto, scusami per essere stato rude, ma appena letta quella ocosa m'ha fatto girare le balle :)
Originariamente inviato da pg08x
Se tu non sei potenzialmente un TRUFFATORE non truffi neanche se in quel momento gli affari non ti vanno come vorresti.
Il bastardi era diretto alla dirigenza nvidia che decide e promuove queste porcate.
Non è vero: in questo mondo non si fanno soldi senza fare delle porcate, ergo: gli onesti non fanno i soldi (a meno di enormi colpi di qlo)
Posso capire su un db se scrivi una 'select' porcata o se programmi con i piedi ma a certi livelli è considerato un bug anche un tempo di elaborazione troppo elevato.
Soprattutto se scrivi drivers usi C ed anche assembly, hai tutte le specifiche dell'hardware che è quello e non cambia e se non scrivi codice buono da subito sei out.
A posteriori può esserci sembre un margine di ottimizzazione, magari sulle dimensioni del codice o sulla velocità con particolari processori ma siamo nell'ordine dei pochi punti percentuali... altrimenti sei stato un cane prima !
Avete mai sentito che cambiando i drivers di un controller raid le prestazioni aumentino del 200% ?
Sono d'accordo che non puoi fare una procedura che impieghi più di un certo tempo, e sono pure d'accordo sul fatto che le ottimizzazioni
di una procedura già ben fatta possono fare solo pochi passi in avanti.Non ho mai pensato il contrario. Solo che sento troppa gente che spaccia o confonde le ottimizzazioni con quello che fa Nvidia, ossia "taglio di codice".
dick diver
12-11-2003, 10:51
[QUOTE]Originariamente inviato da Toc
Ci vuole? Ci vuole!? Ci vuole che tu pensi prima di chiacchierare, e lo stesso faccia chi dice che un'azienda è composta da "bastardi" o simili. Le aziende tirano TUTTE a far soldi, nessuno regala niente, è chiaro o no? E quando uno ha speso miliardi per una cosa che deve far guadagnare, fa di tutto per guadagnare, perché se no ci rimette le penne.
NVidia non è meglio di Ati, sol oche Ati per ora non s'è trovata nel bisogno di fare una porcata simile. E se ci fosse 3dfx nei panni di Nvidia,, che tutti osannano come la madre Teresa del 3D, probabilmente farebbe lo stesso.
in una società capitalistica il profitto non è solo sacrosanto, ma ne è un elemento costituente...
ma altrettanto imprescindibili e costitutiva è la necessità di regole ferree che garantiscono la trasparenza e la sicurezza degli investimenti (ma questa, di solito, è la parte che viene provvidenzialmente dimenticata dai lions rampanti)
se no si giustificano enron, la cirio, le porcate di mr. B ecc.
molto OT me ne rendo conto
pipozzolo
12-11-2003, 10:51
Originariamente inviato da pg08x
Ripeto quanto scritto prima. Non confondiamo
Completamente Diverso è il lavoro degli sviluppatori di giochi che devono fare qualcosa di compatibile con molte piattaforme diverse ed hanno da rispettare dei tempi di consegna (e poi regolarmente non ci riescono)
Perchè, chi sviluppa i driver chi è? Non ha anche lui la necessità di avere pronti i driver quando esce la scheda?
Non deve sviluppare dei driver che coprano l'intera gamma di schede video con varie quantità di memoria e frequenze di clock?
Non sai che una nuova scheda deve funzionare con tutti i giochi usciti precedentemente???
La differenza non è così grande poi...
ma sicuramente i driver sono MOLTO MOLTO MOLTO più ottimizzati dei programmi che li usano, questo è certo.
Hai ragione a dire che siccome i soldi ce li sudiamo non è giusto che ce li facciano sprecare buttandoci fumo negli occhi, ma dimmi una cosa: io non so che lavoro fai, ma mettiamo che tu non capisca un'h di automobili e che ne debbacomprare una; cosa fai, stai a guardare le pubblicità alla tv e nei giornali per una settimana e poi prendi la macchina della quale hanno fatto la pubblicità migliore? Sappiamo tutti benissimo che nessuno dice male dei propri prodotti! Io ogni volta che devo comprare una cosa che richiede un investimento piuttosto ingente faccio una marea di ricerche per vedere i confronti e per capire cosa pensa la gente che già ha il prodotto che voglio comprare.
Appunto che uno compra il prodotto migliore.
Ma quando la casalinga Maria va nel negozietto di computer e le mettono fdavanti i due possibili regali per il suo nipotino, entrambi a 250 euro, uno ATI e uno nVidia e dentro al negozio c'è uno striscione immensio con scritto nVidia oppure vede una scatola tutta colorata con delle scritte pazzesche e il negoziante dice che nVIdia è la migliore (perchè ha gia venduto tutte le ATI e gli restono solo le nVidia in negozio)...forse è cosi che nVidia continua a fare soldi.
STO SCHERZANDO ovvio!
Cmq se devo comporare una macchina (teniamo il parallelismo, leggete macchina = scheda video) prima di tutto scelgo fra un panel di macchine che appartengono alla fascia di prezzo che voglio spendere.
Poi parte la mia ricerca personale su quelle macchine.
In ultimo cerco amici che hanno la macchina o le macchine scelte e chiedo di provarle e le loro impressioni che le usano da tempo.
Ma non sempre puoi chiedere ad un amico di farti provare la 5950 Pro perchè non ho neanche un amico che ce l'abbia, mentre io so che voglio la 5950 Pro...e se poi fosse una scheda schifosa? Ecco allora che l'ho comprata solo perchè i test la spacciano per buona. Poi esce la patch per il 3dmark e la tua scheda buona diventa peggio di quell'altra che hai scartato e che costava pure meno. Dopo ti spari ai maroni. Fila il mio discorso?
halduemilauno
12-11-2003, 10:57
Originariamente inviato da Wonder
ah no? e questo alura cos'è?
http://www.hwupgrade.it/articoli/931/8.html
ciao.
ma hai capito il senso di quello che ho postato.
in quel link il 3dmark generale non c'è e quindi il giudizio di quella rece non cambia. in questo caso invece cambia solo il risultato di un bench sintetico. ora dimmi tu chi è il coglione che compra una scheda video per fare un test sintetico? il test va fatto per vedere se tutto va bene e basta. sai che devi o dovresti fare tot e verifichi, tutto qui. per provare la bontà o meno di una scheda ci sono i bench dei giochi. e in quelli, nVidia a tutt'oggi tanto ottiene e tanto rimane. se poi uno non può fare a meno di un test sintetico c'è AM3, che pare sia a prova di queste cose e quindi ben più attendibile. infatti non hai/avete fatto caso che negli ultimi sei mesi il 3dmark2003 è sparito dalla massa delle rece?
poi se qualcuno vede malafede andiamo fino in fondo e quindi chi ci dice che la FM non prende soldi da altri per fare tutto questo.
io non sapendo niente di tutto ciò prendo il test per quello che è. prima facevo 6000 ora 5300 e chissenefrega. che mi cambia? i giochi per caso smettono di funzionare? no e quindi?
la bontà o meno che c'era prima rimane tutta.
poi se tu pensi che sia solo tutta una manovra di nVidia per vendere di più ti ripeto la tesi contraria:
chi ci dice che la FM non prende soldi da altri per fare tutto questo? chi si sente di escluderlo? e se tutto ciò è vero chi crede ancora nella loro attendibilità? dove sta la verità?
DeMonViTo
12-11-2003, 10:57
raga ricordo che ati e' sempre stata seconda.. se non terza....
Io ho comprato la prima Radeon... ke era la concorrente della GeForce 2...
Una scheda ke ho tenuto fino all'anno scorso.. (durata 3 anni e mezz) e no nmi ha dato mai problemi, mai rogne, e solo soddisfazioni...
Pero' ati era SECONDA a nvidia..... niente truffe, niente driver fasulli o annunci paurosi...
Ati ha sempre lavorato sulle nuove tecnologie, nuove correnti di pensiero ecc (vedi il rilascio mensile di driver).
Anche ati prima o poi sbagliera'... pero' per ora, per quanto sia sempre nel mercato dell'hardware, sta' tenendo un comportamento piu' che decoroso... come amd per ora (amen)
Originariamente inviato da pipozzolo
Perchè, chi sviluppa i driver chi è? Non ha anche lui la necessità di avere pronti i driver quando esce la scheda?
Sviluppano in stretta collaborazione con chi progetta l'hardware ci vuole più tempo a progettare l'harware che il software per farlo funzionare.
Non deve sviluppare dei driver che coprano l'intera gamma di schede video con varie quantità di memoria e frequenze di clock?
Per la vecchia gamma di schede richiama del codice già pronte (sviluppate mesi prima quando quelle schede erano sul mercato)
e poi sul vecchio codice fanno solo debug i programmatori si concentrano sulla gestione dei nuovi modelli hardware
Non sai che una nuova scheda deve funzionare con tutti i giochi usciti precedentemente???
Standard come il DirectX servono appunto ad aggiungere delle funzioni mantenendo quelle preesistenti. Semai il problema è stato di ATI con la 8500 e della KyroII che hanno dovuto fare i conti con vecchi giochi pesantemente ottimizzati nvidia.
La differenza non è così grande poi...
ma sicuramente i driver sono MOLTO MOLTO MOLTO più ottimizzati dei programmi che li usano, questo è certo.
Fai solo una semplice considerazione
Quali sono le dimensioni (e il numero di istruzioni) di un drivers rispetto a quelle di un gioco ?
Molte meno istruzioni, molto meno codice.
Ormai le hanno già spremute, il resto è cheat
Poi la pianto li che ho davvero molto da fare...
Le ottimizzazioni non da criminalizzare a priori; chiaramente se sono mirate ad un singolo programma (peggio se benchmark come in questo caso) non si possono definire ottimizzazioni, ma piuttosto "tarocchi".
AL CONTRARIO OTTIMIZZAZIONI GENERICHE SU CERTI SHADER O COSE COME IL CG NON LI DEMONIZZEREI.
Certo, se i programmatori iniziassero ad utilizzare il Cg in maniera massiccia, vorrei proprio vedere se l'Ati non si troverebbe dietro e dovrebbe correre ai ripari!
Ricordiamoci infatti con le 3DFX le Glide che ogni volta richiedevano una versione di codice totalmente scritta per quelle schede: però vi ricordate Need For Speed in versione normale e in quella Glide? Oppure Quake? In realtà secondo me, in quanto a sviluppo siamo rimasti un pò indietro.
Il problema è nel fatto che la grafica 3D in generale è sempre troppo irrealistica in quanto i programmatori continuano ad ostinarsi a fare tutto con le textures, quando invece con la potenza attuale dei chip video sarebbe possibile muovere oggetti mostruosamente complessi. Inoltre sarebbe molto bello iniziare a sviluppare degli algoritmi standard per il post processing che a mio avviso è molto importante ai fini del fotorealismo (pensate che questo richiede spesso nella realizzazione dei film più tempo della parte 3D vera e propria, perchè da esso dipende alla fine il realismo della sequenza creata).
In Max Payne 2 si inizia a vedere qualcosa, ma è solo un timido inizio.
Ricordate è meglio un 1024x768 con post processing e aliasing e texture filtering serio, piuttosto che un 2048x1536 senza una mazza, in quanto la visualizzazione ne risulterà sempre più fredda e sterile.
Ciao
Spezziamo una lancia a favore del 3DMark.
E' stato uno standard.
Manteniamo ancora il parallelismo con le automobili.
La potenza viene calcolata in CV (cavalli vapore) on in Kw che non sono altro ceh una conversione lineare dei CV. Teniamo buoni i CV.
La potenza di tutte le macchine del mondo, TUTTE, da città, agricole, etc viene calcolata in base alla stessa SCALA e UNITA' DI MISURA, i CV appunto.
Bisogna ovviamente fare la stessa cosa con le schede video e l'intento del 3dMark è proprio questo.
Lo so che alla fine io con la scheda video ci gioco e non ci faccio solo bench, e che quindi vale anceh il test sul gioco.
Ma è la stessa cosa con le automobili. Io con l'auto ci devo andare in montagna, in citta, in autostrada e ogni macchina reagisce diversamente e ha comportamenti diversi in varie situazioni rispetto ad un'altra vettura di pari CV. Insomma, nell'applicazione finale e quotidiana puo darsi che una macchina con 100 CV vada piu veloce in autostrada di una con 120 CV solo perchè è più leggera. Ma qualcuno che ricercava la velocità cosa avrebbe comprato, la 120 CV o la 100 CV? Perche caso mai la 120 CV va più veloce in montagna mentre la 100 CV resta di gran lunga indietro.
Quindi i giochi alla fine non fanno testo per conoscere la potenza pura di una scheda. Il 3dMark forse ci va molto vicino a questo scopo, pur con i suoi limiti, ma almeno apprzziamo l'intento di stabilire una SCALA e un'UNITA' DI MISURA unica.
Originariamente inviato da Wonder
Cmq se devo comporare una macchina (teniamo il parallelismo, leggete macchina = scheda video) prima di tutto scelgo fra un panel di macchine che appartengono alla fascia di prezzo che voglio spendere.
Poi parte la mia ricerca personale su quelle macchine.
In ultimo cerco amici che hanno la macchina o le macchine scelte e chiedo di provarle e le loro impressioni che le usano da tempo.
Ma non sempre puoi chiedere ad un amico di farti provare la 5950 Pro perchè non ho neanche un amico che ce l'abbia, mentre io so che voglio la 5950 Pro...e se poi fosse una scheda schifosa? Ecco allora che l'ho comprata solo perchè i test la spacciano per buona. Poi esce la patch per il 3dmark e la tua scheda buona diventa peggio di quell'altra che hai scartato e che costava pure meno. Dopo ti spari ai maroni. Fila il mio discorso?
Fila a metà.
Nel caso che tu sia un ignorante del settore nel quale vuoi far spese,dopo aver fatto le ricerche del caso, e quindi con le idee già schiarite almeno un po', devi affidarti a chi ne sa (o dice di saperne) più di te.Ma devi avere la capacità di capire di chi ti puoi fidare! Diamine, io non mi fido ciecamente di un negoziante sconosciuto, lo so che lui vende quello che ha e che quello che ha finito fa schifo! Ma il negoziante disonesto o informato male è un problema diverso da quell odi cui stiamo parlando.
Inoltre io compro una scheda NON perché fa più punti al 3Dmark2003, ma perché vedo che coi i giochi che mi interessano, ossia quelli che uso o potrei usare o che sono simili a quelli che uso,. funziona bene, e lo fa nelle prove di più di una fonte. Ossia, cerco di avere dati omogenei, e come quando si fa una buona media, si scarta il massimo ed il minimo, che possono essere valori spurii.
Se poi anche i giochi sono falsati e nessuno in tutto il mondo ha messo in linea una prova fatta con un driver che non sia l'ultimo, va be' ragazzi...allora ditelo che ce l'avete con me! :D
Il problema che non c'è uno, e dico uno, gioco che attualmente faccia schioppare in due la scheda video: anche Half-Life2 e DoomIII cirano a 60 Frames/sec a 1280x1024 con AA4x e ANIS8x (credetemi a fiducia) su di una FX5800, quindi io continuo a dire che siamo indietro.
VOGLIO I VECCHI GIOCHI CHE SCATTAVANO SEMPRE, MA FACEVANO SCHIATTARE LE VGA!
Cia
Di 800 Frames/s di picco a Wings of Fury di 3DMark03 non me ne faccio uno stracacchio!
Originariamente inviato da DeMonViTo
raga ricordo che ati e' sempre stata seconda.. se non terza....
Io ho comprato la prima Radeon... ke era la concorrente della GeForce 2...
Una scheda ke ho tenuto fino all'anno scorso.. (durata 3 anni e mezz) e no nmi ha dato mai problemi, mai rogne, e solo soddisfazioni...
Pero' ati era SECONDA a nvidia..... niente truffe, niente driver fasulli o annunci paurosi...
Ati ha sempre lavorato sulle nuove tecnologie, nuove correnti di pensiero ecc (vedi il rilascio mensile di driver).
Anche ati prima o poi sbagliera'... pero' per ora, per quanto sia sempre nel mercato dell'hardware, sta' tenendo un comportamento piu' che decoroso... come amd per ora (amen)
mmm, finalmente mi è tornato in mente quello che volevo dire dall'inizio! Innanzitutto ocmplimenti per non aver rincorso i produttori di schede video!Anche io ho una Geffo 2 MX400 e una Radeon 8500 USATA, perché prima avevo la Banshee.
Comunque, quell oche volevo dire è che anche Ati ha fatto le sue schifezze: ricordate quando si scoprì che aveva ottimizzato i propri driver per Quake3 Arena, perché era uno dei giochi più usati come riferimento?
ma hai capito il senso di quello che ho postato.
Veramente l'ho preso lettariamente quindi ti ho risposto indicandoti la pagina dove appariva un 3dMark.
Tu intendevi dire invece che non è compreso nella valutazione finale, come c'è chiaramente scritto nelle Conclusioni.
Non c'è nulla da capire e non c'era assolutamente bisogno che mi rispondessi con 20 righe...la mia era solo una risposta per farti notrare che cmq l'hanno fatto girare e hanno pubblicato anche alcuni risultati a titolo informativo.
Come è già stato detto ottimizzare il software voul dire far in modo che le operazioni vengano svolte in maniera veloce sfruttando l'hardware e la sua architettura. Le "ottimizzazioni" fatte da nvidia nel 3dmark03 partono dal presupposto che i driver sanno quello che succederà dopo e quindi nvidia lavora dove sa che la sua architettura è debole (come dire so che vado a sbattere e mi preparo col cuscino :D). Nei giochi la prevedibilità è molto più limitata in quanto le situazioni di gioco cambiano in base alle scelte e abilità del giocatore: quindi queste "ottimizzazioni" sono possibili solo con questi bench.
Sapendo di avere un gap a livello di architettura nvidia ha "lavorato" su quello che poteva "migliorare".
Io trovo molto disonesto questo comportamento perchè la massa non segue l'IT ma si basa sui numeroni e nei centri commerciali trovi il bel cartellino NVIDIA 5xxx punteggio 3Dmark03 xxxx e l'uomo della strada si fa fregare.
Thunder82
12-11-2003, 11:21
Originariamente inviato da DeMonViTo
raga ricordo che ati e' sempre stata seconda.. se non terza....
Io ho comprato la prima Radeon... ke era la concorrente della GeForce 2...
Una scheda ke ho tenuto fino all'anno scorso.. (durata 3 anni e mezz) e no nmi ha dato mai problemi, mai rogne, e solo soddisfazioni...
Pero' ati era SECONDA a nvidia..... niente truffe, niente driver fasulli o annunci paurosi...
Ati ha sempre lavorato sulle nuove tecnologie, nuove correnti di pensiero ecc (vedi il rilascio mensile di driver).
Anche ati prima o poi sbagliera'... pero' per ora, per quanto sia sempre nel mercato dell'hardware, sta' tenendo un comportamento piu' che decoroso... come amd per ora (amen)
Ne sei veramente sicuro?;)
Datti una letta a questi:
http://www.hardocp.com/article.html?art=MTEx
http://www.elitebastards.com/page.php?pageid=2416
http://www.elitebastards.com/page.php?pageid=2397&sid=9dc46361fa168e8fb4116fb022fcbedd&head=1&comments=1
Anche ATi non è una santa, cerchiamo di non valutare le cose coi paraocchi, alla fin dei conti lo scopo di ogni azienda è il fine di lucro, non esiste azienda che fa solo cose buone e giuste, e per avere utili un'azienda fa di tutto...
halduemilauno
12-11-2003, 11:27
Originariamente inviato da Wonder
Veramente l'ho preso lettariamente quindi ti ho risposto indicandoti la pagina dove appariva un 3dMark.
Tu intendevi dire invece che non è compreso nella valutazione finale, come c'è chiaramente scritto nelle Conclusioni.
Non c'è nulla da capire e non c'era assolutamente bisogno che mi rispondessi con 20 righe...la mia era solo una risposta per farti notrare che cmq l'hanno fatto girare e hanno pubblicato anche alcuni risultati a titolo informativo.
esatto.
scusa se ho usato 20 righe. volevo solo esser più chiaro nell'esporrere il mio pensiero.
ciao.
Originariamente inviato da Thunder82
.......non esiste azienda che fa solo cose buone e giuste, e per avere utili un'azienda fa di tutto...
Beh, ad un certo punto c'è anche la legge......... :mad:
Thunder82
12-11-2003, 11:34
Originariamente inviato da the_joe
Beh, ad un certo punto c'è anche la legge......... :mad:
Perchè pensi che le grosse aziende abbiano una nutrita schiera di avvocati?;)
La distinzione fra illegale e "ingiusto" è molto sottile ma esiste.
falcon.eddie
12-11-2003, 11:52
Originariamente inviato da Wonder
Guarda, nessuno è santo e nessuno è ladro. Ma se devo dire chi è più ladro o bastardo mi viene in mente più nVidia che ATi, q credo che qui saranno tutti daccordo con me.
Quindi puoi ben capire che risulti facile buttare tutto addosso a nVidia.
Inoltre siccome fa una campagna pubblicitaria talmente promettente e spinta, risulta facile ILLUDERSI per prestazioni che alla fine non ci sono, a causa di un progetto nato male e FORZATAMENTE portato avanti fino alla spremitura completa.
Guarda solo l'ultima recenzione di 5700 contro 9600...togli tutti i bench, togli tutti i giochi che presentano un logo di nVidai o ATI, togli tutti i giochi DX8 o 8.1 e resta solo Tomb Rider...puoi vedere da solo il risultato.
Alal luce di questo dimmi tu se per 250 euro mi compro una 5700 o una 9600. Dimmi se chi ha comprato una 5700 sperando in driver migliori non si sente tradito o disilluso... dimmi tu con che spirito uno che ha la 5900 ULTRA pagata col sangue, si compra Half Life 2 sapendo che su una misera 9600 XT che costa la metà gira meglio...
Caro mio forse non ti ricordi che la prima "ottimizzazione" viene proprio da Ati con l'affare Quake-quack... :rolleyes:
E poi che significa togli tuttti i giochi...resta solo tomb raider?Ah bè quello è dx9,vuoi forse dire che il motore grafico peggiore e più buggato della storia deve essere usato come metro di paragone?Ma per piacere...
Citi half life2,bene prendi x2 allora che cito testualmente:
"X2: The Threat privilegia in maniera abbastanza evidente l’architettura NV3x rispetto a quella di RV3x0. Risulta essere, infatti, velocissimo il GeForce Fx 5700 Ultra, quasi sempre il migliore del lotto di schede considerate. Ricordiamo che questo benchmark non fa molto uso di funzionalità programmabili: bump mapping e stencil shadow (simili a quelle di Doom III) sono le caratteristiche peculiari di questo motore grafico."
Chi sa che non siano queste le feature utilizzate in futuro?
Probabilmente per doom3 il discorso si inverte,prendi i primi bench sul lavoro id...Non puoi considerare attendibile un gioco non ancora uscito...
Poi dici: "dimmi tu con che spirito uno che ha la 5900 ULTRA pagata col sangue, si compra Half Life 2 sapendo che su una misera 9600 XT che costa la metà ..."
Invece uno che ha preso una 9800pro e si vede bruciato un monitor per colpa di programmatori e/o betatester infelici?
Guarda gli ultimi due catalyst mi sembra di essere tornato a 2 anni fa,bug e problemi,fix ufficiali rilasciati in tempi brevi,tanti che si lamentano...temperature troppo elevate...Prova a spiegare ad un cliente che gli si è bruciato il monitor che è per colpa dei driver di una scheda pagata 450€.... :ncomment:
E ce ne sono diversi:
http://news.hwupgrade.it/11159.html
Nei commenti alle prime tre pagine due "signor monitor"(LG F900P e Philips) fuori uso...
OverClocK79®
12-11-2003, 12:16
raga......
ormai di questi discorsi ne sono pieni tutti forum
chi ruba chi nn ruba
3dmark o nn 3dmark
addirittura i gioki + usati per i test delle skede sono ottimizzati dai driver
qlk bilinear a posto del trilinear
qlk lodbias in + o in meno
tanto ormai ti fanno vedere solo i grafici manco + il gioko
poi si va a giokare e in alcuni applicativi trovi delle leggere differenze al livello grafico
di queste truffe nn credo andiamo di mezzo io voi o chi segue questo forum visto che stiamo sempre attenti alla minima sbavatura
e parlo sia da parte di ati che nvidia anke se ultimamente nvidia ha "ottimizzato" un po di +
già era stata rilasciata una patch in cui le nvidia perdeva tot e le Ati tot
solo che il tot di nvidia era molto + grande
poi si sono riappacificati
poi hanno continuato con sti driver ecc ecc
alla fine che veramente se la prende in quel posto
sono i lettori di riviste di serie B o cmq la massa che si affida ankora solo al 3dm o a qlk benk dei soliti gioki nn andando mai a verificare le qualità grafiche effettive del gioko........
cmq ad oguno il suo
scaricherà anke questa patch
ma che nn gira il 3dm sl mio PC
ormai è da quando ho formattato un po' di tempo fa per vedere se giravano gli app DX9
BYEZZZZZZZZZZZZZZZZZZZ
falcon... le temperature delle gpu ATi risultavano elevate solo con i drivers 3.8 modificati da Omega (omegadrivers).
Io ho provato due monitor, sempre con i Catalyst 3.8 (e anche 3.9) un LG Studioworks 77T5 e un Philips 107S.
I 3.9 sono i drivers + "freddi" rilasciati.
Secondo quel sacrosanto "metodo scientifico" la validità un "esperimento" ha luogo solamente nel momento in cui io riesco a ripeterlo.
Io credo che i drivers ATi (non quelli modificati) non possano in alcun modo turbare un monitor...
PS: io ho una 9500pro@9700pro.
Un mio amico ha la 9800pro e un philips 109S... tutto liscio.
Allora dov'è il problema nei drivers?
Se il problema fosse legato ai drivers, tutti quanti i possessori di Radeon e di monitor qualsiasi dovrebbero aver riscontrato il problema.
Senza contare che poi ci sta la gente che installa drivers su drivers, e ha il pc pieno di monnezza.
magilvia
12-11-2003, 12:35
Poi dici: "dimmi tu con che spirito uno che ha la 5900 ULTRA pagata col sangue, si compra Half Life 2 sapendo che su una misera 9600 XT che costa la metà ..."
Invece uno che ha preso una 9800pro e si vede bruciato un monitor per colpa di programmatori e/o betatester infelici?
Quste due cose in particolare sono ben diverse. Nvidia ha fatto delle ottimizzazioni scorrette ben sapendo di giocare scorretto. ATI invece ha fatto un errore involontario. Ora a parte il fatto che ci sono molti dubbi sulla veridicità di queste bruciature di monitor, preferisco comunque un'azienda un po' più corretta a quei truffatori di nvidia.
Originariamente inviato da WarDuck
Secondo quel sacrosanto "metodo scientifico" la validità un "esperimento" ha luogo solamente nel momento in cui io riesco a ripeterlo.
[...]
Allora dov'è il problema nei drivers?
Se il problema fosse legato ai drivers, tutti quanti i possessori di Radeon e di monitor qualsiasi dovrebbero aver riscontrato il problema.
Senza contare che poi ci sta la gente che installa drivers su drivers, e ha il pc pieno di monnezza.
Sottoscrivo! ;)
c'e' chi smanichetta troppo e poi fa il danno,c'e' anche chi dice che sia colpa di determinate accoppiate hardware alla scheda in questione,ma sono sempre affermazioni la cui verifica e' lasciata alle sole parole.
Io non mi sono mai sentito di fare critiche se non c'e' la totalita' assoluta o quasi del caso....il metodo scientifico insegna!
In ogni caso pero' ATI sembra essere sempre un po' troppo sfigata.Allora mi chiedo:dipende dall'ingegnerizzazione hardware non ottimale del prodotto,la quale genera problemi e incompatibilita' varie?Dall'appoggio non totale ad ATI da parte delle software house nello sviluppo dei giochi per via dello strapotere nVidia?
Qualcuno risponda.
PS sottoscrivo anche cio' che e' stato detto da OverClocK79®
;)
Personalmente sono un po puttana per le skede video...
Avevo una geffo2mx e mi son preso una rad8500 - una scheda mostruosamente potente per l'epoca, ma i driver ati erano una barzelletta...
Ho cambiato la 8500 con una ti4400 del creative... che dire? una portaerei (sia di dimensioni che di prestazioni), niente da dire su nvidia (apparte la mezza truffa che era la ti4600).
Poi è venuta la 9700pro... O_O ho ancora gli occhi sgranati, adesso ho una 9800pro (il cambio è dovuto a un mero calcolo finanziario).
Ogni periodo ha la sua Sk video predominante...
Che dire delle Fx? è un progetto a mio avviso sbagliato, punto.
Che dire delle Rad 9XXX? un buon progetto con ampi margini di ottimizzazione e miglioramento.
Tutto qui, nessuna presa di parte, o campanilismo... in fondo sono io che PAGO per possedere una sk video... nn il contrario! ;)
Ciao bella gente! :D
quanta ipocrisia c'e'............il forum e' pieno di gente che grida 7000-8000 punti al 3dmark2003 e MOLTI comprano le vga solo in relazione a questi 2 bench....3dmark2001 e 3dmark2003 e ora ....ma si chissenefrega ....ma dai....a quest'ora chi ha un FX avra' le palle che gli frullano altro che...del resto mi sembrava scontato che in questo bench non quadrasse qualcosa...basta analizzare gli score individuali..come e' possibile che una vga che applica stessi effetti dx8.1 sia in 3dmark2001 che in 2003 vada bene nell'uno e male nell'altro....se e' leader lo e' e basta....e infatti ecco la magagna....gia' Oppainter e Macci stanno ritornando a ATi sul 2003 visto che la XT nonostante la "TRUFFA" nvidia la mazzulava abbondantemente.....ora il distacco sara' abissale.....
non mi dilungo su Nvidia xche' tutti conoscono il mio pensiero....ormai sono rimasti pochi irriducibili a sostenerla....ma anche se si tornasse all'epoca della geffo mx starebbero li' a dire che Nvidia con i prossimi driver....seeeeeee con il prossimo "BARO"
halduemilauno
12-11-2003, 13:26
Originariamente inviato da TripleX
gia' Oppainter e Macci stanno ritornando a ATi sul 2003 visto che la XT nonostante la "TRUFFA" nvidia la mazzulava abbondantemente.....ora il distacco sara' abissale.....
oh diamine oppainter e macci stanno tornando ad ati.
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl::rotfl: :rotfl: :rotfl:
forse non hai presente i 2 bench
3dmark2001 leader ATI
3dmark2003 leader Nvidia ( al primo posto XT)
bene ora la classifica e' solo ATi.....
ecco un irriducibile....
ma bisogna essere masochisiti ormai...
domani mi porto a casa una FX cosi' mi punisco un po' ;)
halduemilauno
12-11-2003, 13:45
Originariamente inviato da TripleX
forse non hai presente i 2 bench
3dmark2001 leader ATI
3dmark2003 leader Nvidia ( al primo posto XT)
bene ora la classifica e' solo ATi.....
ecco un irriducibile....
ma bisogna essere masochisiti ormai...
domani mi porto a casa una FX cosi' mi punisco un po' ;)
guarda che di irriducibile qui ci sei te e tutti quelli come te. per non dirti altro.
EVITA HAL.......se tutti sono come me ....forse c'e' un motivo.....non ti e' balenata questa idea???
difendere Nvidia e' come lottare contro i mulini a vento.....ti lascio volentieri il compito....e fortuna che c'e' qualcuno che la difende cosi' e' possibile capire quanto vale l'una e l'altra altrimenti si parlerebbe solo di Ati...
^TiGeRShArK^
12-11-2003, 13:50
cmq Thunder82 una domanda sorge spontanea....
ma li leggi i link ke posti???
Tratto da un tuo link:
"ATi appears to have some kind of driver bug (possibly affecting gamma levels) that makes things appear darker than they should. There seems to be no performance benefit from doing this, so to call it a 'questionable optimisation' seems wholly inappropriate in light of this"
Che in pratica vuol dire ke le differenze di visualizzazione in aquamark 3 erano dovute solamente ad un bug dei driver e non era presente alcuna ottimizzazione fatta appositamente x aumentare la velocità.
Vogliamo ricordare x caso sempre su acquamark 3 le ABOMINEVOLI distorsioni delle immagini e mancanze di ombre che generavano le skede nvidia solamente x aumentare le performance??? Se nn sbaglio nella 52 dei detonator sono state corrette queste skifezze ma nn ho idea di come siano ora le prestazioni....
X non parlare di quack 3.... È stato ormai detto ridetto e stradetto che quelle di ATI erano solo ottimizzazioni specifike x quake 3 ke ne aumentavano le prestazioni in maniera selettiva in quanto, come ben sai, a quei tempi TUTTI i gioki erano ottimizzati x hardware nvidia e quindi era quasi sempre necessario inserire all'interno dei driver del codice scritto appositamente x i vari applicativi.
D'altro canto cosa pensi che stia facendo nvidia proprio in questo periodo? È costretta a ricorrere a quello ke faceva ATI una volta con quack ottimizzando singolarmente i driver x i vari gioki. La differenza è però ke stavolta non sono i programmatori a ottimizzare i giochi per skede ATI, ma essi scrivono codice perfettamente standard ke gira da DIO sulle skede ATI, mentre TUTTE le skede basate su NV30 e successivi rikiedono del codice molto particolare ke necessita di ottimizzazioni specifiche. Se nn sbaglio queste ottimizzazioni riguardano principalmente l'ordine delle istruzioni da inviare alla GPU. Se esse vengono inviate nel modo più naturale possibile (ke tra l'altro è anke quello utilizzato dall'HLSL) le skede NVIDIA vengono penalizzate notevolmente. Per questo GRAZIE alla signora nvidia i programmatori sono costretti a farsi il culo per ottimizzare i gioki anke x le loro skede anzikè limitarsi a scrivere direttamente il gioco seguendo lo standard e utilizzare il tempo in più x migliorare il gioco stesso (e nn le prestazioni velocistike sotto una particolare famiglia di skede).....
e poi evita di dire per non dirti altro....xche' non mi pare sia un offesa irriducibile....allo stadio e' consuetudine....LOL
Caro mio forse non ti ricordi che la prima "ottimizzazione" viene proprio da Ati con l'affare Quake-quack...
Allora, "caro mio" lo dici poi a qualcun'altro perchè non sono TUO...forse sono caro...
COsa intendi con AFFARE quake? Stai forse parlando du qualità video...perchè se è di quello che parli cercando di difendere nVidia caschi male. E' riconmosciuto che l'IQ migliore è di ATi in ogni campo e ti sfido a dire il contrario.
E poi che significa togli tuttti i giochi...resta solo tomb raider?Ah bè quello è dx9,vuoi forse dire che il motore grafico peggiore e più buggato della storia deve essere usato come metro di paragone?Ma per piacere...
Citi half life2,bene prendi x2 allora che cito testualmente:
"X2: The Threat privilegia in maniera abbastanza evidente l’architettura NV3x rispetto a quella di RV3x0. Risulta essere, infatti, velocissimo il GeForce Fx 5700 Ultra, quasi sempre il migliore del lotto di schede considerate. Ricordiamo che questo benchmark non fa molto uso di funzionalità programmabili: bump mapping e stencil shadow (simili a quelle di Doom III) sono le caratteristiche peculiari di questo motore grafico."
Chi sa che non siano queste le feature utilizzate in futuro?
Dico Tomb Rider perchè:
1 - è un gioco DX9
2 - non è un bench sintetico
3 - non è di parte (loghi vari, ottimizzazioni, etc etc)
4 - non è un gioco tutto per nVidia (DOOM 3) o tutto per ATi (HL2)
sono motivi sufficenti?
Invece uno che ha preso una 9800pro e si vede bruciato un monitor per colpa di programmatori e/o betatester infelici?
Guarda gli ultimi due catalyst mi sembra di essere tornato a 2 anni fa,bug e problemi,fix ufficiali rilasciati in tempi brevi,tanti che si lamentano...temperature troppo elevate...Prova a spiegare ad un cliente che gli si è bruciato il monitor che è per colpa dei driver di una scheda pagata 450€....
E ce ne sono diversi:
http://news.hwupgrade.it/11159.html
Nei commenti alle prime tre pagine due "signor monitor"(LG F900P e Philips) fuori uso...
Guarda, casualmente sono 3 settimane che uso i catalyst 3.8 e non ho avuto nessun tipo di problema. E così come me ci sono tantissimi utenti Cat 3.8 che non hanno problemi. Solo che 2 voci stonate in un coro di 1000 voci si sentono lo stesso e tu stai lì a sentirle! Se per pura coincidenza si sono bruciati 2 monitor non è colpa di ATi. Solo che siccome non girava la voce quando c'erano i Cat 3.4 nessuno saltava su, ma cosa dovrebbe dire chi ha bruciato il monitor con i 3.4??? Sono solo chiacchiere. E chi brucia il monitor con i detonator? Colpa dei Detonator? Ma fammi il piacere. Se tu avessi la voglia e soprattutto le conoscenze per controllare, noteresti che le routine di gestione del monitor (refresh compresi) sono identiche ai Cat 3.7, quindi è pura coincidenza che siano saltati i monitor con i 3.8. Forse in Italia abbiamo problemi con l'elettricità? Sbalzi di tensione? Nubifragi con fulmini? Apri gli occhi per favore! Ahh anche in USA hanno problemi con l'elettricità.
DMark Score: 8839 OPPAINTER **Xtremesystems.org 3DTeam**
User: oppainter@socal.rr.com
Date: 2003-11-11
CPU: AMD Athlon(tm) 64 2641 MHz
GPU: ATI RADEON 9800 XT, 587 MHz / 459 MHz
OS: Microsoft Windows 2000
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
3DMark Score: 8558 **runmc** "team puss 3DMark Team"
User: rbmccall2000@attbi.com
Date: 2003-11-11
CPU: Intel Pentium 4 4082 MHz
GPU: ATI RADEON 9800 XT, 567 MHz / 452 MHz
OS: Microsoft Windows XP
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
3DMark Score: 8438 Tom Holck**Xtreme Systems.org 3d Team**
User: tom.holck@email.dk
Date: 2003-11-11
CPU: Intel Pentium 4 4052 MHz
GPU: ATI RADEON 9800 XT, 540 MHz / 435 MHz
OS: Microsoft Windows XP
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
3DMark Score: 8010 *CATCH22ATPLAY* joins team puss :)~ 74F air test
User: catch22atplay@yahoo.com
Date: 2003-11-11
CPU: Intel Pentium 4 3715 MHz
GPU: ATI RADEON 9800 XT, 513 MHz / 429 MHz
OS: Microsoft Windows XP
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
3DMark Score: 7990 HKEPC.com Overclocking Team (OC.STUPID)
User: alnsl@i-cable.com
Date: 2003-11-11
CPU: Intel Pentium 4 3804 MHz
GPU: ATI RADEON 9800 XT, 517 MHz / 441 MHz
OS: Microsoft Windows XP
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
3DMark Score: 7928 My Homework by TinTin
User: kenkcf@sinaman.com
Date: 2003-11-11
CPU: Intel Pentium 4 3801 MHz
GPU: ATI RADEON 9800 XT, 501 MHz / 420 MHz
OS: Microsoft Windows XP
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
patch 340...........LOLLLISSIMO....le ATi gudagnano con sta patch....
halduemilauno
12-11-2003, 14:00
Originariamente inviato da TripleX
EVITA HAL.......se tutti sono come me ....forse c'e' un motivo.....non ti e' balenata questa idea???
difendere Nvidia e' come lottare contro i mulini a vento.....ti lascio volentieri il compito....e fortuna che c'e' qualcuno che la difende cosi' e' possibile capire quanto vale l'una e l'altra altrimenti si parlerebbe solo di Ati...
non ho detto che sono tutti come te. per fortuna siete in pochi.
e che tu per tua stessa ammissione sei un tifoso. qui non si tratta di difendere o attaccare. il fatto è che tu porti avanti argomentazioni risibili come quello che ti ho quotato.
ti rendi conto di quello che dici?
ti rendi conto che persino Paolo Corsini è dovuto intervenire contro alcune tue affermazioni.
ti rendi conto che molti quotano i tuoi post con ironia.
cerca di vedere le cose da tutti i punti di vista.
cerca di vedere le cose con più equilibrio, meno acredine.
halduemilauno
12-11-2003, 14:04
Originariamente inviato da TripleX
DMark Score: 8839 OPPAINTER **Xtremesystems.org 3DTeam**
User: oppainter@socal.rr.com
Date: 2003-11-11
CPU: AMD Athlon(tm) 64 2641 MHz
GPU: ATI RADEON 9800 XT, 587 MHz / 459 MHz
OS: Microsoft Windows 2000
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
3DMark Score: 8558 **runmc** "team puss 3DMark Team"
User: rbmccall2000@attbi.com
Date: 2003-11-11
CPU: Intel Pentium 4 4082 MHz
GPU: ATI RADEON 9800 XT, 567 MHz / 452 MHz
OS: Microsoft Windows XP
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
3DMark Score: 8438 Tom Holck**Xtreme Systems.org 3d Team**
User: tom.holck@email.dk
Date: 2003-11-11
CPU: Intel Pentium 4 4052 MHz
GPU: ATI RADEON 9800 XT, 540 MHz / 435 MHz
OS: Microsoft Windows XP
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
3DMark Score: 8010 *CATCH22ATPLAY* joins team puss :)~ 74F air test
User: catch22atplay@yahoo.com
Date: 2003-11-11
CPU: Intel Pentium 4 3715 MHz
GPU: ATI RADEON 9800 XT, 513 MHz / 429 MHz
OS: Microsoft Windows XP
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
3DMark Score: 7990 HKEPC.com Overclocking Team (OC.STUPID)
User: alnsl@i-cable.com
Date: 2003-11-11
CPU: Intel Pentium 4 3804 MHz
GPU: ATI RADEON 9800 XT, 517 MHz / 441 MHz
OS: Microsoft Windows XP
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
3DMark Score: 7928 My Homework by TinTin
User: kenkcf@sinaman.com
Date: 2003-11-11
CPU: Intel Pentium 4 3801 MHz
GPU: ATI RADEON 9800 XT, 501 MHz / 420 MHz
OS: Microsoft Windows XP
System Memory: 512 MB
Resolution: 1024x768 32 bit
Disp Driver: 6.14.10.6396
Driver WHQL: Yes
Video Memory: 256 MB
patch 340...........LOLLLISSIMO....le ATi gudagnano con sta patch....
come volevasi dimostrare.
ma che stai a fa posti la classifica?
ma proprio non ti rendi conto?
Thunder82
12-11-2003, 14:08
Originariamente inviato da ^TiGeRShArK^
cmq Thunder82 una domanda sorge spontanea....
ma li leggi i link ke posti???
Tratto da un tuo link:
"ATi appears to have some kind of driver bug (possibly affecting gamma levels) that makes things appear darker than they should. There seems to be no performance benefit from doing this, so to call it a 'questionable optimisation' seems wholly inappropriate in light of this"
Che in pratica vuol dire ke le differenze di visualizzazione in aquamark 3 erano dovute solamente ad un bug dei driver e non era presente alcuna ottimizzazione fatta appositamente x aumentare la velocità.
Vogliamo ricordare x caso sempre su acquamark 3 le ABOMINEVOLI distorsioni delle immagini e mancanze di ombre che generavano le skede nvidia solamente x aumentare le performance??? Se nn sbaglio nella 52 dei detonator sono state corrette queste skifezze ma nn ho idea di come siano ora le prestazioni....
X non parlare di quack 3.... È stato ormai detto ridetto e stradetto che quelle di ATI erano solo ottimizzazioni specifike x quake 3 ke ne aumentavano le prestazioni in maniera selettiva in quanto, come ben sai, a quei tempi TUTTI i gioki erano ottimizzati x hardware nvidia e quindi era quasi sempre necessario inserire all'interno dei driver del codice scritto appositamente x i vari applicativi.
D'altro canto cosa pensi che stia facendo nvidia proprio in questo periodo? È costretta a ricorrere a quello ke faceva ATI una volta con quack ottimizzando singolarmente i driver x i vari gioki. La differenza è però ke stavolta non sono i programmatori a ottimizzare i giochi per skede ATI, ma essi scrivono codice perfettamente standard ke gira da DIO sulle skede ATI, mentre TUTTE le skede basate su NV30 e successivi rikiedono del codice molto particolare ke necessita di ottimizzazioni specifiche. Se nn sbaglio queste ottimizzazioni riguardano principalmente l'ordine delle istruzioni da inviare alla GPU. Se esse vengono inviate nel modo più naturale possibile (ke tra l'altro è anke quello utilizzato dall'HLSL) le skede NVIDIA vengono penalizzate notevolmente. Per questo GRAZIE alla signora nvidia i programmatori sono costretti a farsi il culo per ottimizzare i gioki anke x le loro skede anzikè limitarsi a scrivere direttamente il gioco seguendo lo standard e utilizzare il tempo in più x migliorare il gioco stesso (e nn le prestazioni velocistike sotto una particolare famiglia di skede).....
Ah, quindi ATi poverina era giustificata nel cambiare le texture a quake 3 per farlo andare + veloce? Ma per favore...
:rolleyes:
E tu l'hai letto l'altro articolo che ho linkato di elitebastards? O hai letto solo quello che ti faceva più comodo?;)
Sia chiaro, se adesso dovessi prendermi una scheda nuova prenderei una 9800, più che altro per il rapporto prezzo/prestazioni, ma non vedo perchè nell'immaginario collettivo ATi è giustificata a "ottimizzare" mentre nVidia no...
veramente Corsini non e' mai intervenuto....semmai Raven
secondo) se le mie argomentazioni sono risibili lo sono anche quelle degli altri visto che diciamo le stesse cose....beh basta aprire gli occhi e non nascondersi dietro al dito ....io ho sempre detto che le FX non valgono cio' che costano....ti senti di dissentire??
ho detto che non vanno bene con le dx9 full ??
smentisci....ho sempre detto cio' che dicono tutti ne' piu' e ne' meno...magari avro' fatto una raccolta dei difetti....cio' non toglie che se le FX fossero state schede vincenti come fu la 4200 a suo tempo non avrei infierito....
qui a non rendersi conto c'e' solo chi difende Nvidia che sta cercando di vendere a qualsiasi costo....e ancora c'e' che la difende ....chi spera in nuovi dirver...chi spera in Nv40....etc...etc...anche se fosse un mostro nv40 io non lo comprerei perche'vivrei nel timore che un giorno la mia scheda con una patch vada come una S3 trio...se a te va bene cosi' amen....sappi pero' che io lavoro nel mondo del commercio e per me e' disdicevole un atteggiamento cosi' da parte di un'azienda...se per te non lo e' non so che dire....io ho sempre fatto il mio lavoro onestamente e non mi sono forse per questo arricchito....forse dovrei prendere una partita di FX e spacciarle x le vga migliori del mondo e farle pagare uno sproposito tanto il cliente medio o ci mette un S3 o una Fx o una Xt nel case...per lui e' uguale....ma chi sta dall'altro lato dovrebbe consigliare il giusto e il meglio (se ti viene chiesto) bene io non mi sento di dire che Nvidia e' il meglio....sfido chiunque a dire altro....se per te queste argomentazioni sono risibili....sappi che sei contro il 99% di chi ne capisce di Hardware visto che a differenza di quanto dici non siamo pochi anzi....il contrario....c'e' per fortuna poca gente che si permette di offendere solo perche' si nasconde dietro un dito ipocritamente solo perche' nel case ha un FX e solo xche' altrimenti facendo ammmetterebbe di avere fatto un acquisto sbagliato....nonostante cio' io ho sempre detto che sono dalla parte di chi ha un FX....anzi mi dispiace per loro quando apprendo ste notizie...pero' io se fossi stato fregato sul mio acquisto non continuerei a parteggiare x chi mi ha in@ulato anzi ....
ps
non ho mai detto di essere tifoso....io compro cio' che e' meglio per me....nel mondo delle Vga ora ATi....nel mondo delle 2 ruote Yamaha....etc...etc...
pps
fino ad oggi a contrastare i miei post ho visto solo te....solo che fino ad oggi ti mantenevi sulle tue ora hai uscito un po' il piedino dalla scarpa...ma cmq la chiudo qua....evidentemente non ti sforzi d'interpretare bene cio' che scrivo....PERCHE' A PRESCINDERE DA QUANTO DICO....SE UNO PENSA....A QUELLO E' TIFOSO ATI...LOGICO DI CONSEGUENZA SI PENSI....:SPARA CAZZATE....guardala in un ottica diversa....a seconda da che parte ti giri puoi vedere le 6 del pm o le 6 di am.....bene impariamo a vederli entrambi...gli orari!!
posto la classifica per far notara come Ati con la patch abbia guadagnato anziche' perdere 1000 e piu' punti come qualcun altro che e' passato da 50fps medi a 20 scarsi....se questo non e' cheattare....a non e' vero ottimizzare scusa....
lo vedi che non riesci a interpretare bene i miei post...??
come la battuta su oppaionter e macci.....non hai capito neanche lontanamente cosa intendessi....se tu stravoolgi il senso dei miei post logico che poi ci siano persone che in base al contesto ironico che ci costruisci tu attorno facciano sarcasmo....dalle mie parti non stai facendo ne' piu' e ne' meno che sctenare flame come facevo io tempo fa....il punto e': io lo facevo involontariamente preso dalla stizza nei confronti di una casa tu lo fai in modo volonatrio e gratuto giusto x dare contro e chiudo qui....
halduemilauno
12-11-2003, 14:28
Originariamente inviato da TripleX
veramente Corsini non e' mai intervenuto....semmai Raven
secondo) se le mie argomentazioni sono risibili lo sono anche quelle degli altri visto che diciamo le stesse cose....beh basta aprire gli occhi e non nascondersi dietro al dito ....io ho sempre detto che le FX non valgono cio' che costano....ti senti di dissentire??
ho detto che non vanno bene con le dx9 full ??
smentisci....ho sempre detto cio' che dicono tutti ne' piu' e ne' meno...magari avro' fatto una raccolta dei difetti....cio' non toglie che se le FX fossero state schede vincenti come fu la 4200 a suo tempo non avrei infierito....
qui a non rendersi conto c'e' solo chi difende Nvidia che sta cercando di vendere a qualsiasi costo....e ancora c'e' che la difende ....chi spera in nuovi dirver...chi spera in Nv40....etc...etc...anche se fosse un mostro nv40 io non lo comprerei perche'vivrei nel timore che un giorno la mia scheda con una patch vada come una S3 trio...se a te va bene cosi' amen....sappi pero' che io lavoro nel mondo del commercio e per me e' disdicevole un atteggiamento cosi' da parte di un'azienda...se per te non lo e' non so che dire....io ho sempre fatto il mio lavoro onestamente e non mi sono forse per questo arricchito....forse dovrei prendere una partita di FX e spacciarle x le vga migliori del mondo e farle pagare uno sproposito tanto il cliente medio o ci mette un S3 o una Fx o una Xt nel case...per lui e' uguale....ma chi sta dall'altro lato dovrebbe consigliare il giusto e il meglio (se ti viene chiesto) bene io non mi sento di dire che Nvidia e' il meglio....sfido chiunque a dire altro....se per te queste argomentazioni sono risibili....sappi che sei contro il 99% di chi ne capisce di Hardware visto che a differenza di quanto dici non siamo pochi anzi....il contrario....c'e' per fortuna poca gente che si permette di offendere solo perche' si nasconde dietro un dito ipocritamente solo perche' nel case ha un FX e solo xche' altrimenti facendo ammmetterebbe di avere fatto un acquisto sbagliato....nonostante cio' io ho sempre detto che sono dalla parte di chi ha un FX....anzi mi dispiace per loro quando apprendo ste notizie...pero' io se fossi stato fregato sul mio acquisto non continuerei a parteggiare x chi mi ha in@ulato anzi ....
ps
non ho mai detto di essere tifoso....io compro cio' che e' meglio per me....nel mondo delle Vga ora ATi....nel mondo delle 2 ruote Yamaha....etc...etc...
pps
fino ad oggi a contrastare i miei post ho visto solo te....solo che fino ad oggi ti mantenevi sulle tue ora hai uscito un po' il piedino dalla scarpa...ma cmq la chiudo qua....evidentemente non ti sforzi d'interpretare bene cio' che scrivo....PERCHE' A PRESCINDERE DA QUANTO DICO....SE UNO PENSA....A QUELLO E' TIFOSO ATI...LOGICO DI CONSEGUENZA SI PENSI....:SPARA CAZZATE....guardala in un ottica diversa....a seconda da che parte ti giri puoi vedere le 6 del pm o le 6 di am.....bene impariamo a vederli entrambi...gli orari!!
guarda non mi va di replicare più di tanto a quanto ho quotato.
ribadisco che si trattava anche di Paolo Corsini nell'occasione dell'articolo sulla 9800 xt vs 5950ultra. dove tu affermavi che era tutto da rifare.
poi la mia grande critica nei tuoi confronti è nell'acredine che metti nella risibilità di alcuni tuoi interventi.
io quello che ti consiglio è più serenità di giudizio, di analisi, tutto qui.
del resto avevo anche detto che non avrei postato piu' in schede video visto l'andazzo....ma sai come e' poi c'e' gente che mi contatta in pvt x chiedere consigli su questa e quella scheda giusto xche' vede in me un mero tifoso Ati che non capisce un @azzo e mi commuovo e torno a postare...il mondo e' bello xche' e' vario...
ok...accetto il tuo consiglio e te lo giro....
pace e bene fratello...
diventare razzisti in bese a cio' che si ha nel case mi pare ridicolo....di razzismo vero ce n'e' gia' troppo....
pero' ogni tanto basta andare oltre un semplice vocabolo x coglierne l'arcano contenuto...
Salutoni HAl....ci si risente alla prossima PATCH 350....LOL
halduemilauno
12-11-2003, 14:35
Originariamente inviato da TripleX
del resto avevo anche detto che non avrei postato piu' in schede video visto l'andazzo....ma sai come e' poi c'e' gente che mi contatta in pvt x chiedere consigli su questa e quella scheda giusto xche' vede in me un mero tifoso Ati che non capisce un @azzo e mi commuovo e torno a postare...il mondo e' bello xche' e' vario...
mai promessa è stata più disattesa.
cmq in quello che hai detto ora c'è qualcosa di vero.
halduemilauno
12-11-2003, 14:36
Originariamente inviato da TripleX
Salutoni HAl....ci si risente alla prossima PATCH 350....LOL
saluti.
non prima però eh.
^TiGeRShArK^
12-11-2003, 14:39
Boh! secondo me nn li hai letti veramente gli articoli ke hai postato...
IN TUTTI E DUE si evince chiaramente, soprattutto nelle conclusioni, ke tutte le issues imputate ad ATI sono da imputare senza dubbio ad ATI, l'unico dubbio potrebbe sorgere x Halo, ma viene detto kiaramente ke questo dubbio non va neanke preso in considerazione xkè sia le skede nvidia ke le skede ati hanno delle notevoli difficoltà nel rendere correttamente sotto halo determinati effetti ke utilizzano il pixel shader. Quindi sembrerebbe ke siano problemi legati ad una programmazione particolare del gioco (nn dimentikiamo ke esso è un porting da xbox... e tra l'atltro mi kiedo kome diamine faccia a daare problemi anke sotto nvidia visto ke la skeda video dell'xbox e proprio di quella casa...)
Cmq alla luce di tutte queste accuse ingiuste imputate ad ati, almeno secondo l'autore di quegli articoli ke hai citato, è stato riportato questo paragrafo nelle conclusioni:
"there is a certain irony in nVidia using AquaMark 3 and Unreal Tournament 2003 to show up issues with ATi drivers, seeing as both these titles have suffered (and still appear to be suffering in the 52.16 drivers) from incorrect rendering with nVidia drivers - Not using true trilinear filtering in UT2003 and missing explosions, lightsources and shadows in AquaMark"
X ki nn sa l'inglese:
"Sembra abbastanza ironico che nvidia utilizzi Aquamark 3 e UT2003 per mostrare dei problemi dei driver ATI con questi applicativi, in quanto entrambi i titoli hanno sofferto (e ancora sembrano soffrire con i driver 52.16) di rendering errati con i driver Nvidia - non utilizzando un vero filtraggio trilineare con UT2003 e con delle esplosioni, delle sorgenti di luce e delle ombre mancanti in aquamark 3"
Originariamente inviato da TripleX
Salutoni HAl....ci si risente alla prossima PATCH 350....LOL
basta non arrendersi....con i prossimi detonator....azz forceware avremo un nuovo forcecheat e tanti tanti punti in piu' al 3d mark...basta saper aspettare...o basta non installare la patch
;)
ma un chipset nuovo no e'?
almeno quelli son discreti....fiero possessore di Nforce 2 in tutte le salse e sostenitore di Nforce3 250.....sul 150 stendiamo un velo:rolleyes:
Originariamente inviato da halduemilauno
saluti.
non prima però eh.
dipende da quanto Nvidia e' brava a non farsi sgamare.....fino ad oggi...mmmhhh.....meglio il mago Casanova:D
ps
volevo aggiungere che vedo sempre tuoi post di risposta.....ma qualcuno con contenuti tuoi ogni tanto??
giusto x conoscerti.....x capire come la pensi.....fino ad oggi mi son fatto una idea in base alle sole tue risposte....ma anche nei 3d che apri lanci il sasso e non commenti piu'.....sarei felice ogni tanto di sentire qualche argomentazione non risibile...visto che nel forum vga si parla solo di ATi che e' risibilissima....a parte gli scherzi....ogni tanto mettici del tuo....siamo qui per scambiarci idee non x contrbbatterle senza motivazioni o con sole motivazioni personali:O
bye
}DrSlump{
12-11-2003, 15:11
Io cel'ho più grossa e veloce di tutti.
Di che marca è? Della KINDER.
}DrSlump{
12-11-2003, 15:12
Per coloro che mi hanno chiesto in pvt la versione della mia scheda grafica, rispondo:
è la versione "Gran sorpresa".
Originariamente inviato da halduemilauno
poi se tu pensi che sia solo tutta una manovra di nVidia per vendere di più ti ripeto la tesi contraria:
chi ci dice che la FM non prende soldi da altri per fare tutto questo? chi si sente di escluderlo? e se tutto ciò è vero chi crede ancora nella loro attendibilità? dove sta la verità?
Io ho sempre sentito dire che nVidia,essendo la piu' grande,piu' potente e piu' ricca produttrice di chip video,detenendo la maggior quota di mercato,avesse di conseguenza maggior influenza su swhouse varie;da queste considerazioni forse rimane piu' difficile scalzare nVidia....ma tutto e' possibile (nVidia potrebbe essere antipatica a molti altri,non solo ad ATI,per cui le pressioni opposte sono tante).
Quello che affermi cmq lo sostengo tranquillamente perche' di queste cose ne sono convinto in parte anch'io.
Cosi come lo si puo' sostenere per i processori:applicazioni e bench sintetici fatti su misura (per incrementare o decrementare)dietro......pagamento?Non credi?
Forse tu tiri fuori la questione classica della concorrenza fatta a tutti i livelli,anche quello della corruzione?
falcon.eddie
12-11-2003, 16:10
Originariamente inviato da Wonder
Allora, "caro mio" lo dici poi a qualcun'altro perchè non sono TUO...forse sono caro...
COsa intendi con AFFARE quake? Stai forse parlando du qualità video...perchè se è di quello che parli cercando di difendere nVidia caschi male. E' riconmosciuto che l'IQ migliore è di ATi in ogni campo e ti sfido a dire il contrario.
Dico Tomb Rider perchè:
1 - è un gioco DX9
2 - non è un bench sintetico
3 - non è di parte (loghi vari, ottimizzazioni, etc etc)
4 - non è un gioco tutto per nVidia (DOOM 3) o tutto per ATi (HL2)
sono motivi sufficenti?
Guarda, casualmente sono 3 settimane che uso i catalyst 3.8 e non ho avuto nessun tipo di problema. E così come me ci sono tantissimi utenti Cat 3.8 che non hanno problemi. Solo che 2 voci stonate in un coro di 1000 voci si sentono lo stesso e tu stai lì a sentirle! Se per pura coincidenza si sono bruciati 2 monitor non è colpa di ATi. Solo che siccome non girava la voce quando c'erano i Cat 3.4 nessuno saltava su, ma cosa dovrebbe dire chi ha bruciato il monitor con i 3.4??? Sono solo chiacchiere. E chi brucia il monitor con i detonator? Colpa dei Detonator? Ma fammi il piacere. Se tu avessi la voglia e soprattutto le conoscenze per controllare, noteresti che le routine di gestione del monitor (refresh compresi) sono identiche ai Cat 3.7, quindi è pura coincidenza che siano saltati i monitor con i 3.8. Forse in Italia abbiamo problemi con l'elettricità? Sbalzi di tensione? Nubifragi con fulmini? Apri gli occhi per favore! Ahh anche in USA hanno problemi con l'elettricità.
Bè se non conosci la storia delle passate ottimizzazioni ci credo che dai la colpa a nvidia...Ha già risposto thunder al riguardo(Q3)
Come aveva fatto notare qualcuno qualche tempo fa sul forum sembra che ora vada di moda "spalar merda" su nvidia,dargli degli infami e dei bastardi,ricorda che sia ati che nvidia si sono comportate alla stessa maniera riguardo alle "ottimizzazioni".Prima Ati,poi nvidia.
Riguardo a Tomb Raider,no non sono sufficienti visto che 1)non mi sembra ci sia gioco che usi quel motore, 2)c'è un uso di dx9 da cani 3)a voler essere pignoli il logo nvidia c'è eccome sul gioco :D ,ho qui davanti la scatola! ;)
Insisti,io ho riportato i commenti di altri utenti in merito alla questione driver e tu cambi discorso,hai ragione i 3.8 non hanno avuto problemi di surriscaldamento nè di monitor,qui e su altri forum d'oltreoceano scrivono tutti panzane,tutte chiacchiere,(chissà perchè si sono sentite solo al riguardo dei cat 3.8,non riguardo ai detonator...tutte congiure?Come ti spieghi l'uscita precoce dei 3.9 e il bugfix per le AIW?)poi quando parli con uno che ha avuto il problema voglio vedere che gli rispondi...Gli sbalzi di tensione brucierebbero prima gli alimentatori dei monitor, molto prima.Uno sbalzo che fa fuori un monitor sicuramente brucerebbe prima l'ali se non tutto il pc,tanti ne vengono in negozio col pc bruciato per un fulmine e MAI gli si è bruciato il monitor.Tutta fortuna?
PS=La notizia è stata riportata anche da radeonmaxx nonchè i principali siti HW,io non penso che si voglia generare allarmismo ingiustificato.Oltretutto mi ci trovo ora a giostrare una persona col monitor che gli rimane in standby dopo 1 sett. dai 3.8...Sentiamo che mi dice la casa della garanzia...Magari è solo un caso.
:)
Non è per essere rompic@@@@@i, ma a proposito dei monitor bruciati, che ne dicono i costruttori di monitor a questo proposito?
Visto che si sono sentite le voci di tutti tranne che di Samsung, Philips, LG ecc. ecc. sarebbe interessante sentire anche il loro parere anche perchè poi se il monitor è in garanzia lo devono riparare loro e se la colpa fosse di ATI, credete che non si rivarrebbero su di lei?
MiKeLezZ
12-11-2003, 16:24
Sarà ma a me questa storia dei monitor bruciati pare una grande MIN.....A :D
Come è possibile via totalmente SOFTWARE danneggiare l'HARDWARE??
Se fosse davvero possibile, perchè allora non esistono milioni e milioni di virus informatici che lo fanno?
Te schiacci sull' .exe e ... PUFF.. ti esplode un componente del PC.. lettori cd che impazziscono, mouse che prendono fuoco, hard disk che si aprono a metà, stampanti che cominciano a spruzzare inchiostro in giro... :sofico: !
Su, dai, cerchiamo di esser seri :cool: .
Porca miseria, mi si è appena bruciato il monitor secondario. Non è che mi hai gufato tu? Tutta colpa dei 3.8. Avevi ragione tu! Mi sento una merda ad averti parlato così, mai più, scusami.
Hei un attimo...ho una Matrox! Cacchio ma allora non sono i 3.8
Siccome qui è tutto campato in aria...senti questa.
In realtà i monitor saltano se la Radeon è montata su una MoBo con chipset nVidia nForce.
GLi ultimi driver della nForce rilevano se hai una scheda ATi e in tal caso la mandano fuori specifica per far bruciare i monitor e per poi fare in modo che la colpa ricada su ATi. Ma in realtà la colpa è di nVidia.
Vedila così se ti piace di più...e casomai paradossalmente è proprio quello che avviene...non mi stupirei di questa guerra all'americana.
Originariamente inviato da Wonder
Porca miseria, mi si è appena bruciato il monitor secondario. Non è che mi hai gufato tu? Tutta colpa dei 3.8. Avevi ragione tu! Mi sento una merda ad averti parlato così, mai più, scusami.
Hei un attimo...ho una Matrox! Cacchio ma allora non sono i 3.8
Ci si è messa pure Matrox a fare driver per spaccarci i monitor! Bastarda! sarà perché non gli compriamo le Pharelia? :eheh:
La tua ottima battuta è perfetta per capire su quale campo si sta spostando l'attenzione.
Mi spiego: le grandi aziende oltre a esaltare i propri prodotti cercano di screditare quelli degli altri.
Questo non riguarda solo ati/nvidia o intel/amd ma tutte le grandi aziende che voglio imporre il proprio marchio
pipozzolo
12-11-2003, 16:35
Originariamente inviato da MiKeLezZ
Sarà ma a me questa storia dei monitor bruciati pare una grande MIN.....A :D
Come è possibile via totalmente SOFTWARE danneggiare l'HARDWARE??
Se fosse davvero possibile, perchè allora non esistono milioni e milioni di virus informatici che lo fanno?
Te schiacci sull' .exe e ... PUFF.. ti esplode un componente del PC.. lettori cd che impazziscono, mouse che prendono fuoco, hard disk che si aprono a metà, stampanti che cominciano a spruzzare inchiostro in giro... :sofico: !
Su, dai, cerchiamo di esser seri :cool: .
mmmmmmmmmm
OTTIMA IDEA!
:D
Facciamo un virus che muove le testine del disco da una parte all'altra continuamente?
Sono :eekk: spaventato, il monitor è il pezzo +costoso del mio PC, che dite è possibile far richiesta ad ATI che magari mi risparmino il monitor in cambio di un hard disk? :D
Cavolo the_joe...ceh monitor hai? un Ilyama da 24 pollici LCD??
Originariamente inviato da Wonder
Cavolo the_joe...ceh monitor hai? un Ilyama da 24 pollici LCD??
No, è il PC che vale poco :bsod:
Però il monitor è attaccato con un cavo DVI alla radeon 8500 quindi con i 3.8 rischioooooooooo!!!!!!! :eekk:
magilvia
12-11-2003, 16:52
ma loooooooooool :D
falcon.eddie
12-11-2003, 17:06
Originariamente inviato da Wonder
Porca miseria, mi si è appena bruciato il monitor secondario. Non è che mi hai gufato tu? Tutta colpa dei 3.8. Avevi ragione tu! Mi sento una merda ad averti parlato così, mai più, scusami.
Hei un attimo...ho una Matrox! Cacchio ma allora non sono i 3.8
:muro: :mc: Hai ragione tu sicuramente,ripeto,sono tutte cazzate queste del surriscaldamento e dei monitor,sta di fatto che mi ritrovo anche io e due del forum col monitor andato per il suddetto problema,visto che ne sei convinto perchè non lo dici anche ai webmaster dei seguenti siti:
http://www.dvhardware.net/article.php?sid=2024
http://www.guru3d.com/newsitem.php?id=641
Magari anche qui che è un sito italiano:
http://www.radeonitalia.it/modules.php?name=News&file=article&sid=296
Così magari anche loro evitano di dire balle colossali non trovi?
EDIT:Ho volutamente tralasciato nvnews e altri siti reputati "pronvidia" per essere più obiettivo.Ma tanto non c'è peggior sordo... :rolleyes:
Scusate di nuovo, non è per ripetere le cose, ma i produttori di monitor che sono anche loro direttamente interessati alla cosa, cosa hanno detto in proposito, no, tanto per sentire una voce ufficiale ed autorevole oltre alle voci sparse qua e la sul web sui vari forum ecc., magari qualche commento ufficiale oltre a quello di ATI che ha escluso qualsiasi possibilità di danneggiamento da parte dei driver, se ci fosse anche una controparte autorevole ad avvalorare le tesi dei danneggiati, la cosa sarebbe + credibile, non penso che a Philips o agli altri produttori faccia piacere riparare i danni procurati da ATI.
falcon.eddie
12-11-2003, 17:24
Originariamente inviato da the_joe
Scusate di nuovo, non è per ripetere le cose, ma i produttori di monitor che sono anche loro direttamente interessati alla cosa, cosa hanno detto in proposito, no, tanto per sentire una voce ufficiale ed autorevole oltre alle voci sparse qua e la sul web sui vari forum ecc., magari qualche commento ufficiale oltre a quello di ATI che ha escluso qualsiasi possibilità di danneggiamento da parte dei driver, se ci fosse anche una controparte autorevole ad avvalorare le tesi dei danneggiati, la cosa sarebbe + credibile, non penso che a Philips o agli altri produttori faccia piacere riparare i danni procurati da ATI.
Devo mandare un 107B di uno che ha avuto il suddetto problema dopo 1 sett. che ha installato i 3.8,notava sfarfallamenti all'avvio dei giochi e poi non si è acceso più,il problema è che è fuori garanzia quindi...
Cmq i monitor più nuovi hanno protezioni per l'overrerfresh,anche se il caso del f900p di un utente qui sul forum fa pensare.Bisognerebbe provare con un relisys o un benq di nuova produzione che forse sono più sensibili.
Ehh si..hai ragione...ci sono tanti sordi che non sentono quello che non sento io qui...
Dimmi tu cosa manda il segnale SVGA al monitor.
Segnale di quale pixel accendere
Segnale di che colore dare al pixel
Segnale del refresh (clock)
Converrai con me che quello pericoloso è il CLOCK giusto?
Bene...esiste orami da tempo su tutti i monitor, e se li vendi te ne sarai accordto pure tu, che quando un monitor va fuori specifica con gli Hz, appare una bellissima scritta OSD ceh recita "Segnale input non valido" oppure "input non presente", etc etc...
Dammi la tua spiegazione ingegneristica di come un segnale video SVGA possa fottere un monitor. Se mi convinci allora ti darò credito.
Originariamente inviato da falcon.eddie
Devo mandare un 107B di uno che ha avuto il suddetto problema dopo 1 sett. che ha installato i 3.8,notava sfarfallamenti all'avvio dei giochi e poi non si è acceso più,il problema è che è fuori garanzia quindi...
Cmq i monitor più nuovi hanno protezioni per l'overrerfresh,anche se il caso del f900p di un utente qui sul forum fa pensare.Bisognerebbe provare con un relisys o un benq di nuova produzione che forse sono più sensibili.
Il monitor da cui sto scrivendo è un Philips 107B, non capisco come si possa danneggiare con un overrefresh, non dovrebbe semplicemente indicare "scan out of range" ed andare in protezione? Oppure il circuito che alimenta il pennello elettronico può fare come gli pare ed andare anche a 120Hz a 1024x768 (il limite è 100) per poi rompersi?
Fra i nuovi bench preferisco GunMetal...un vero spacca schede video......
Thunder82
12-11-2003, 17:41
Il problema mi pare che non fosse il refresh troppo alto, ma il fatto che quando si usciva da un'applicazione 3d la scheda continuava a mandare tutta la tabella dei refresh che supportava (in continuazione) al monitor, che quindi impazziva.
Quindi anche se ha la protezione da alti refresh non si salva.
OverClocK79®
12-11-2003, 17:59
xMikelez
è vero che i driver sono una cosa soft
ma il driver comanda cmq un dispositivo HW
pare appunto che mandi in overefresh i monitor per un istante.......
PARE sempre perchè nessuno ha confermato ne smentito che attivi prima l'uscita secondaria e poi la primaria
mandando così fuori refresh il monitor per una frazione di tempo
nessuno ha mai contrallato ne confermato questo
tutto nasce dal fatto che un betatester subito dopo aver messo i 3.8 ha bruciato il suo
ora.......
io sono passato indenne dai 3.7-3.8-3.9
TUTTI i mieni amici nn che clienti che hanno provato suddetti driver NON hanno bruciato nulla.....
ora nell'ottica che nn siamo ciecati
è vero anke che qkluno in + forum si è lamentato di aver bruciato il proprio monitor dopo un po' che usava i 3.8
quello che mi viene da chiedere
in ITA quanti monitor si bruciano al giorno?
nn è che prima nessuno ha mai detto nulla e adesso che gira la voce tutti a dire colpa dei 3.8????
di cappelle dei driver ne sono state fatte infinite
mi rocorda ankora qlke skede che si bruciava mandando in esecuzione degli screensaver per ore......
ecc ecc
xTriplex e Halo
posso dirvi che persone dalle vedute diverse ci saranno sempre......
l'importante è come queste vengono esposte.....
e come vengono argomentate
e nn ultimo come si da peso alle proprie convizioni se con dati o con sentito dire ecc ecc
MOLTI siti online hanno decretato la XT come vincitrice sulla 5950
MOLTI hanno detto che sono praticamente pari
MOLTI hanno detto va meglio la 5950
forse sono un po' + quelli per la XT cmq c'è da dire che ritenere pessima una skeda come la 5950 ora ce ne passa.......
nn abbiamo ankora benk DX9 VERI
che possano mettere sotto stress ne una ne l'altra skeda
tanto che entrambe hanno architetture molto diverse...
possono avvantaggiarsi in alcuni ambiti e perde in altri a seconda appunto della loro architettura
siamo arrivati ad un punto in cui quasi è come vedere un AMD Vs INTEL
dove appunto le 2 CPU hanno comportamenti diversi a seconda degli applicativi diversi
nn siamo + all'epoca delle G1 o G2 R1/R2 G400 dove o vinceva una su tutte o perdeva ovunque.....
adesso abbiamo applicativi dove una si comporta meglio e dove l'altra va peggio e viceversa
vedi anke le librerie OPGL dove
credo che ognuno di noi scelga sempre per un INSIEME di fattori
vuoi prezzo vuoi affidabilità vuoi colori vuoi supporto o altro......
ma baste che scelga per dei propri personali parametri...che abbiano un minimo di senso
(nn perchè scalda o perchè è blu ecc ecc)
io sinceramente nn mi sento in dovere di giudicare le scelte degli altri.......
se sono convinto della mia io sono apposto.....
l'altro andrà avanti con la sua
(del resto nn parliamo di skede che vanno o che nn vanno ma di skede che vanno legg di + o legg di meno)
di certo nn scelgo perchè fa + punti al 3dm :rolleyes:
BYEZZZZZZZZZZZZZZZ
falcon.eddie
12-11-2003, 17:59
Originariamente inviato da Wonder
Ehh si..hai ragione...ci sono tanti sordi che non sentono quello che non sento io qui...
Dimmi tu cosa manda il segnale SVGA al monitor.
Segnale di quale pixel accendere
Segnale di che colore dare al pixel
Segnale del refresh (clock)
Converrai con me che quello pericoloso è il CLOCK giusto?
Bene...esiste orami da tempo su tutti i monitor, e se li vendi te ne sarai accordto pure tu, che quando un monitor va fuori specifica con gli Hz, appare una bellissima scritta OSD ceh recita "Segnale input non valido" oppure "input non presente", etc etc...
Dammi la tua spiegazione ingegneristica di come un segnale video SVGA possa fottere un monitor. Se mi convinci allora ti darò credito.
Non sono un ingegnere,perchè continui a domandarmelo a me?
Chiedilo a chi ha postato la notizia su Guru o RadeonItalia...Io ho riportato delle informazioni non le ho messe in giro io,informazioni e deposizioni di utenti che hanno avuto questi problemi.
Su RadeonItalia è scritto così:
"Dopo aver eseguito parecchi test è stato scoperto che il problema è causato da un grave bug nei Catalyst; quando vengono lanciate applicazioni 3D viene inizializzata prima la SECONDARY device e solo in un secondo momento la PRIMARY. Questo può essere dannoso se si utilizza un solo monitor, perchè nel momento in cui viene inizializzata la SECONDARY device il driver cerca di accedere al file INF che contiene le specifiche del secondo monitor (non presente), quindi manda fuori specifica il primo per qualche secondo (il tempo di passare alla PRIMARY device). In questo lasso di tempo gli schermi più vecchi soffrono molto e rischiano di romprersi siccome non sono stati progettati con una protezione contro l'over-refresh."
Ora i nuovi monitor (perlomeno i più buoni) sono protetti da un pezzo per l'overrefresh,i più vecchi no.Mi ha meravigliato anche a me il caso del f900p lg visto che è nuovo,e qui rispondo anche a the_joe,bisognerebbe chiedere all'autore del post come gli è andata a finire la cosa per quanto riguarda la garanzia.
falcon.eddie
12-11-2003, 18:06
Originariamente inviato da the_joe
Il monitor da cui sto scrivendo è un Philips 107B, non capisco come si possa danneggiare con un overrefresh, non dovrebbe semplicemente indicare "scan out of range" ed andare in protezione? Oppure il circuito che alimenta il pennello elettronico può fare come gli pare ed andare anche a 120Hz a 1024x768 (il limite è 100) per poi rompersi?
Guarda,per i nuovi sono d'accordo...Anche se sto usando un lcd 170s4 e ho appena mandato il suddetto fuori specifica...Nessun avvertimento(vedevo il dektop tranquillamente) se non la lucina che lampeggiava di accensione.Un 107P invece si chiude e mi dice frequency out of range,io penso che il problema sia in quell'istante in cui il monitor va fuori specifica per poi spegnersi a salvaguardia della sua integrità...Considera che quel 107B ha quattro anni.:)
giovanbattista
12-11-2003, 18:26
GIUSTO X ALLUNGARE LA LINEA DEI POST VI ANNUNCIO IN ANTEPRIMA MONDIALE IL LANCIO DEL NUOVO GIOCO DI TOM CLANCY (SPIONAGGIO INDUSTRIALE) TU 6 UN SIMPATIZZANTE ATI O NIVIDIA E IN UN FORUM VERRAI CONTATTATO DA DEI LOSCHI INDIVIDUI I QUALI TI ARRUOLERANNO PER PORTARE HA TERMINE UNA SERIE DI SOFFISTICATISSIME MACCHINAZZIONI PER SCHREDITARE UNA O L'ALTRA MULTINATIONAL !!!!!!
giovanbattista
12-11-2003, 19:24
chiaramente i fps saranno proporzionali agli obbiettivi che conquisterai
psychok9
12-11-2003, 20:51
Originariamente inviato da Thunder82
Ah, quindi ATi poverina era giustificata nel cambiare le texture a quake 3 per farlo andare + veloce? Ma per favore...
:rolleyes:
E tu l'hai letto l'altro articolo che ho linkato di elitebastards? O hai letto solo quello che ti faceva più comodo?;)
Sia chiaro, se adesso dovessi prendermi una scheda nuova prenderei una 9800, più che altro per il rapporto prezzo/prestazioni, ma non vedo perchè nell'immaginario collettivo ATi è giustificata a "ottimizzare" mentre nVidia no...
MA LOL quanta disinformazione!! Ma sai che quel problema c'era pure nei Catalyst 3.4?! Sai che non esisteva ancora Aquamark 3? E che quindi il bug era presente in tempi non sospetti!!!
Lascia perdere...
nVidia sta giocando troppo sporco...:ncomment:
Un bel :tapiro: a nVidia! Ma LOL speriamo che con NV40 nVidia torni a essere competitiva onestamente...
Originariamente inviato da falcon.eddie
Non sono un ingegnere,perchè continui a domandarmelo a me?
Chiedilo a chi ha postato la notizia su Guru o RadeonItalia
Esatto, hai riportato notizie che altri hanno postato e non ti sei accorto di una PICCOLISSIMA cosa che, ripeto, ti è sfuggita. Tutti i siti che tu link hanno riportato la stessa notizia che una tizio su DriverHeaven ha riportato. Un utente. Di DriverHeaven. Come sei io postassi su HwUpgrade che mi si è rotto il monitor da quando ho cambiato olio nella macchina e dessi la colpa all'Agip.
Questa è la posizione UFFICIALE di Ati:
"ATi sta lavorando assiduamente per risolvere i problemi sopracitati con l'aiuto di alcuni betatesters.
Inoltre la società canadese ha rilasciato due dichiarazioni:
Surriscaldamento. Abbiamo impiegato molto tempo nell'analizzare le temperature prodotte dalle schede grafiche con i Catalyst 3.8, ma non sono stati riscontrati, in nessuna circostanza, aumenti di temperatura tali da portare alla ruttura delle schede (noi non abbiamo overcloccato le schede di test). Solo nel test Nature di 3DMark2k3 si è notato un leggero aumento delle temperature di riferimento, che comunque sono rimaste sotto il livello di sicurezza. Le ispezioni continuano per determinare se questi aumenti di temperatura anomali esistono;
Monitor. Abbiamo impiegato molto tempo nel cercare di riprodurre il problema e nell'analizzare il codice dei driver. Non abbiamo trovato nulla. A questo punto abbiamo deciso di lavorare assiduamente con un betatester che ha riscontrato questo tipo di problema. Comunque noi non abbiamo ricevuto nessun tipo di segnalazione al Supporto Clienti."
Riportato sempre da RadeonItalia.
Ora ammesso che l'aumento di temperatura ci sia, la storia dei monitor che tu riporti come certa ed insindacabile è tutt'altro che dimostrata da chiunque su questo pianeta. Se hai link sicuri e certi, di una casistica talmente ampia ed accurata che non si "in alcuni casi si è registrata..." : CHE casi e QUANTI. Altrimenti è aria fritta. Come gli AMD che non sono compatibili con tutti i prg. Che sono instabili. E le Nvidia che hanno una pessima qualità video nel 2d e Ati e Matrox sono 80 spanne sopra. Fatti, non pugnette.
P.S. Non ce l'ho con te in particolare ma con una tendenza a demonizzare tutto e tutti basta che un pirla parli di una cosa... pazienza se l'ha inventata.
falcon.eddie
12-11-2003, 21:26
:mad: Porca miseria,avevo scritto mezz'ora e non ero loggato... :mad:
Riassumendo cmq: Djlode se fosse un pirla che ha detto una boiata,per quale cribbio di motivo le principali testate HW on-line avrebbero riportato la notizia?(a che pro?)Per generare inutile allarmismo?Non è che se posti dell'olio della macchina o che scrivo io che la 5950 mi ha bruciato il monitor poi mi pubblicano su quelle testate...O sono fuori di testa su guru3d,nvnews,radeonmaxx,radeonitalia ecc. o forse un fondamento di vero c'è non trovi?A meno che non abbiano postato la notizia giusto per far clamore...
Ti ripeto nella news relativa all'uscita dei 3.9 già nelle prime tre pagine ho letto di due col monitor fuori uso...Pura casualità?Sta di fatto che domani mi trovo un monitor che non va perchè il cliente mi ha detto di aver installato 1 sett. prima i 3.8(mi ha riferito di sfarfallamenti all'avvio dei giochi)...Vediamo che mi dirà l'assistenza.
;)
MiKeLezZ
12-11-2003, 21:30
Originariamente inviato da falcon.eddie
:mad: Porca miseria,avevo scritto mezz'ora e non ero loggato... :mad:
Riassumendo cmq: Djlode se fosse un pirla che ha detto una boiata,per quale cribbio di motivo le principali testate HW on-line avrebbero riportato la notizia?(a che pro?)Per generare inutile allarmismo?Non è che se posti dell'olio della macchina o che scrivo io che la 5950 mi ha bruciato il monitor poi mi pubblicano su quelle testate...O sono fuori di testa su guru3d,nvnews,radeonmaxx,radeonitalia ecc. o forse un fondamento di vero c'è non trovi?A meno che non abbiano postato la notizia giusto per far clamore...
Ti ripeto nella news relativa all'uscita dei 3.9 già nelle prime tre pagine ho letto di due col monitor fuori uso...Pura casualità?Sta di fatto che domani mi trovo un monitor che non va perchè il cliente mi ha detto di aver installato 1 sett. prima i 3.8(mi ha riferito di sfarfallamenti all'avvio dei giochi)...Vediamo che mi dirà l'assistenza.
;)
Ti sei risposto da solo! :O
Che nervoso vero quando scrivi un post che vincerebbe il pulizer e poi lo perdi!!!!
Vabbhè a parte questo. I siti che tu citi, riportano tutti notizie prese a destra e a manca (occhio, non vuole dire copiare, ma di solito riportano le notizie e lo vedi quando citano la fonte) da alcuni siti di news molto importanti e quotati (the inquirer e altri che ora non mi sopraggiungono). Quindi è logico che quando anche uno solo di questi siti riporti la notizia, il tutto come dei tasselli del domino riceva una valenza mondiale. Su questo fatto però mancano le prove e infatti nessuno è ancora riuscito a dimostrare la cosa.
Renditi conto che avere una Ati con i 3.8 o i 3.9 e il monitor che si rompe anche in 100 casi al mondo, ora che è uscita quella roba è una casistica talmente piccola (su scala mondiale) ma che riceve una interesse talmente alto appunto perchè gira quella voce. A me è impazzito il monitor (in pratica vedo il menù con tutte le lingue disponibili, ma contemporaneamente) e mi si è rovinato (per il resto funziona alla perfezione ed è del 98 quindi non l'ho cambiato tanto mi ricordo dove sono le impostazioni e vado a intuito). Sai con cosa? Con una Gf2 Mx. Se avessi scritto anche io su un forum e la notizia fosse rimbaltazata in giro? Un mio amico con il monitor di modello superiore sempre Sony ha avuto lo stesso problema con una Ati ques'estate. Ora è tornato normale. Colpa di Ati? Il fatto è che la colpa non è nel mio caso della scheda video, così come nel suo. Ma tant'è...
Questo esempio per dire che il tutto può essere un caso, e fintanto che non ci sarà una dimostrazione della cosa tale rimane. Dopo tutto ancora c'è gente che crede che i driver Nvidia soffrano di bug che aumentano le prestazioni nel 3d mark 2003. E' bastata una voce e pum, tutti a crederci. Come a dire che la 5900 fa schifo, salvo poi nei giochi andare al pari di una 9800. Ma nei giochi dx9.... che non esistono ancora. E potrei continuare per ore a fornirti esempi di follia collettiva senza uno straccio di prova che però ormai sono entrati nelle nostre teste e difficilmente usciranno.
Il fatto e' che se la notizia di un problema,anche una sola viene postata su un forum,quindi resa PUBBLICA,crea una sorta di condizionamento collettivo che subisce l'effetto moltiplicativo della notizia stessa, generando psicosi di massa.Basta uno o due che parlano di un problema sopraggiunto con quel componente,driver,software che sembra che ne siano 10.000.
Tutto proprio per il carattere di pubblicita' che assume un fatto che ,preso singolarmente a sé non desterebbe questo genere di psicosi,mentre invece messo in un forum ad ampio bacino di utenza come quello di hwupgrde,assume altri connotati.
Magari i siti riportano per cautela notizie di problemi,pero' alla fine per decretarne l'ufficialita' reale c'e' bisogno di un conteggio preciso e a lungo termine per arrivare a definire un numero legale di casi.
Magari queste verifiche sono tuttora in corso,magari si staranno contattando anche i produttori di monitor.
aspettiamo ancora.
Originariamente inviato da falcon.eddie
Non sono un ingegnere,perchè continui a domandarmelo a me?
Chiedilo a chi ha postato la notizia su Guru o RadeonItalia...Io ho riportato delle informazioni non le ho messe in giro io,informazioni e deposizioni di utenti che hanno avuto questi problemi.
Su RadeonItalia è scritto così:
"Dopo aver eseguito parecchi test è stato scoperto che il problema è causato da un grave bug nei Catalyst; quando vengono lanciate applicazioni 3D viene inizializzata prima la SECONDARY device e solo in un secondo momento la PRIMARY. Questo può essere dannoso se si utilizza un solo monitor, perchè nel momento in cui viene inizializzata la SECONDARY device il driver cerca di accedere al file INF che contiene le specifiche del secondo monitor (non presente), quindi manda fuori specifica il primo per qualche secondo (il tempo di passare alla PRIMARY device). In questo lasso di tempo gli schermi più vecchi soffrono molto e rischiano di romprersi siccome non sono stati progettati con una protezione contro l'over-refresh."
Ora i nuovi monitor (perlomeno i più buoni) sono protetti da un pezzo per l'overrefresh,i più vecchi no.Mi ha meravigliato anche a me il caso del f900p lg visto che è nuovo,e qui rispondo anche a the_joe,bisognerebbe chiedere all'autore del post come gli è andata a finire la cosa per quanto riguarda la garanzia.
Mi scuso per non aver risposto prima, ma ho avuto degli impegni non derogabili......
Ora mi sono fatto un'idea + precisa di tutta la faccenda, non volevo assolutamente scatenare niente, anzi ci tenevo a conoscere la verità, credo fermamente che qualcuno abbia avuto dei problemi con il monitor e a questo punto volevo sapere come questi problemi fossero venuti fuori, tutto qua, senza polemiche.
Se il problema è quello riconducibile a qualche istante di overrefresh all'uscita dalle applicazioni 3D, va bene, basta sapere cos'è altrimenti si parla tanto per parlare.
Grazie per avermi risposto.
Giorgio
Originariamente inviato da DjLode
Che nervoso vero quando scrivi un post che vincerebbe il pulizer e poi lo perdi!!!!
Vabbhè a parte questo. I siti che tu citi, riportano tutti notizie prese a destra e a manca (occhio, non vuole dire copiare, ma di solito riportano le notizie e lo vedi quando citano la fonte) da alcuni siti di news molto importanti e quotati (the inquirer e altri che ora non mi sopraggiungono). Quindi è logico che quando anche uno solo di questi siti riporti la notizia, il tutto come dei tasselli del domino riceva una valenza mondiale. Su questo fatto però mancano le prove e infatti nessuno è ancora riuscito a dimostrare la cosa.
Renditi conto che avere una Ati con i 3.8 o i 3.9 e il monitor che si rompe anche in 100 casi al mondo, ora che è uscita quella roba è una casistica talmente piccola (su scala mondiale) ma che riceve una interesse talmente alto appunto perchè gira quella voce. A me è impazzito il monitor (in pratica vedo il menù con tutte le lingue disponibili, ma contemporaneamente) e mi si è rovinato (per il resto funziona alla perfezione ed è del 98 quindi non l'ho cambiato tanto mi ricordo dove sono le impostazioni e vado a intuito). Sai con cosa? Con una Gf2 Mx. Se avessi scritto anche io su un forum e la notizia fosse rimbaltazata in giro? Un mio amico con il monitor di modello superiore sempre Sony ha avuto lo stesso problema con una Ati ques'estate. Ora è tornato normale. Colpa di Ati? Il fatto è che la colpa non è nel mio caso della scheda video, così come nel suo. Ma tant'è...
Questo esempio per dire che il tutto può essere un caso, e fintanto che non ci sarà una dimostrazione della cosa tale rimane. Dopo tutto ancora c'è gente che crede che i driver Nvidia soffrano di bug che aumentano le prestazioni nel 3d mark 2003. E' bastata una voce e pum, tutti a crederci. Come a dire che la 5900 fa schifo, salvo poi nei giochi andare al pari di una 9800. Ma nei giochi dx9.... che non esistono ancora. E potrei continuare per ore a fornirti esempi di follia collettiva senza uno straccio di prova che però ormai sono entrati nelle nostre teste e difficilmente usciranno.
per la FX 5800 ultra se non sbaglio ci fu un periodo la voce di presunti danneggiamenti al chip video durante la visione di filmati in dvd o altro,a causa dell'inattivazione del flow-fx e del conseguente innalzamento di temperatura?(o era il contrario col flow-fx che si attivava e dava fastidio?)Problemi risolti con una release succssiva di driver,mi sembra;cosa che creo' polemiche al pari di questa su ATI.
correggetemi se sbaglio.
leoneazzurro
13-11-2003, 12:36
Veramente, a tutti quelli che si stanno accanendo contro nVidia per questa "patch" di 3Dmark, vorrei dire una cosa.
Questa "patch" in realtà non sta eliminando delle ottimizzazioni "illegali" di nVidia nei giochi.
Sta disabilitando delle parti di codice molto importanti nei giochi (specificatamente il compilatore on-the-fly presente nella serie 5X.XX) e che non servono assolutamente a "barare", ma solo a far sì che il codice giri al meglio sull'architettura Cine FX (riordino delle istruzioni e allocazione dei registri), senza andare a toccare la qualità di immagine.
Quindi se IN QUESTO CASO l'onestà di qualcuno è in discussione, non è quella di nVIDIA, bensì quella di Futuremark che ha rilasciato una versione che deliberatamente penalizza nVIDIA nei confronti della concorrenza.
Originariamente inviato da leoneazzurro
Veramente, a tutti quelli che si stanno accanendo contro nVidia per questa "patch" di 3Dmark, vorrei dire una cosa.
Questa "patch" in realtà non sta eliminando delle ottimizzazioni "illegali" di nVidia nei giochi.
Sta disabilitando delle parti di codice molto importanti nei giochi (specificatamente il compilatore on-the-fly presente nella serie 5X.XX) e che non servono assolutamente a "barare", ma solo a far sì che il codice giri al meglio sull'architettura Cine FX (riordino delle istruzioni e allocazione dei registri), senza andare a toccare la qualità di immagine.
Quindi se IN QUESTO CASO l'onestà di qualcuno è in discussione, non è quella di nVIDIA, bensì quella di Futuremark che ha rilasciato una versione che deliberatamente penalizza nVIDIA nei confronti della concorrenza.
Questo è quello che dice Nvidia. Ti sei preso la briga di sentire l'altra campana? Leggiti le risposte di FutureMark stessa, in questo articolo su Xbitlabs: http://www.xbitlabs.com/news/video/display/20031112181114.html
Loro dicono che non possono fare una cosa del genere:"3DMark03 does not talk to graphics driver, it talks to the DirectX API, which then talks to the driver. Thus, it is impossible for the application to disable GPU compiler".
Come la mettiamo.
Io non dico chi abbia ragione, ma non si possono assegnare ragione e torto in base alle dichiarazioni di una sola parte.
^TiGeRShArK^
13-11-2003, 13:19
Secondo me mi pare molto più logica la risposta di futuremark xkè cambiando il codice del 3dmark non può influire assolutamente sul compilatore on-the-fly che è appunto parte dei driver.....
leoneazzurro
13-11-2003, 13:35
Non ti preoccupare, leggo tutte e due le campane, ma sinceramente, per me 3Dmark è una cosa inutile e dannosa come lo è il Sysmark per i processori.
Sta di fatto che anche Gainward (che non è nVIDIA) ha detto le medesime cose, e se Futuremark non fosse in grado di disabilitare certe features, non sarebbe nemmeno in grado di disabilitare le "ottimizzazioni" per sè stessa. Infatti non è solo il problema del riconoscimento dell'applicazione o meno, ma di specifici aggiustamenti nell'utilizzo dei drivers. Quali dll usa? E come? Come fa Futuremark a stabilire se un'ottimizzazione è dannosa o meno? Chi ci dice che invece non abbia rimosso qualcosa di perfettamente funzionante e "lecito"? Oltretutto con la release ufficiale dei drivers 52.16 non sembra ci fossero state notizie di particolari problemi di visualizzazione o degrado dell'immagine nè in 3DMark nè nella maggior parte dei giochi, quindi qui non si parla di bilinear filtering al posto del trilinear, di abbassamento della resa delle texture o altri accorgimenti atti a minimizzare il carico di lavoro della GPU.
Come per il discorso Half-Life 2: sicuramente le ATi avevano e magari avranno la leadership in quell'applicazione grazie ad una migliore architettura, resta il fatto che uno sviluppatore, pagato dalla ditta A fior di milioni di dollari per avere in bundle il tal prodotto che guarda caso funziona male sul prodotto della ditta B (concorrente di A) e che indice pure una conferenza stampa per mostrare quanto il prodotto di A sia migliore del prodotto di B mi sembra quantomeno poco serio.
Che il progetto nVIDIA non sia dei migliori mi sembra ovvio, che faccia cazzate pure, che ogni volta che c'è una diatriba tutti cerchino di sparare contro quest'azienda mi sembra infantile.
E chi vi scrive sta utilizzando una ATI Radeon 9600.
Originariamente inviato da leoneazzurro
E chi vi scrive sta utilizzando una ATI Radeon 9600.
[troll mode]
Che hai comprato pensando che quelle che si dicono su nVidia sono solo c@@@@@e! :D
[/troll mode]
leoneazzurro
13-11-2003, 14:05
No, che ho comprato pensando che abbia un ottimo rapporto prezzo/prestazioni. Su un altro PC ho una Geforce 4 Ti 4200, che quando è uscita era il punto di riferimento in quella fascia di prezzo.
Ma ho visto anche Geforce FX e le ultime uscite non mi sembrano affatto brutte schede (la prima 5800 con aspirapolvere era un altro problema), soprattutto la 5700.
Originariamente inviato da leoneazzurro
No, che ho comprato pensando che abbia un ottimo rapporto prezzo/prestazioni. Su un altro PC ho una Geforce 4 Ti 4200, che quando è uscita era il punto di riferimento in quella fascia di prezzo.
Ma ho visto anche Geforce FX e le ultime uscite non mi sembrano affatto brutte schede (la prima 5800 con aspirapolvere era un altro problema), soprattutto la 5700.
Scusa, ma non ho resistito. :cincin:
Originariamente inviato da leoneazzurro
Non ti preoccupare, leggo tutte e due le campane, ma sinceramente, per me 3Dmark è una cosa inutile e dannosa come lo è il Sysmark per i processori.
Sta di fatto che anche Gainward (che non è nVIDIA) ha detto le medesime cose, e se Futuremark non fosse in grado di disabilitare certe features, non sarebbe nemmeno in grado di disabilitare le "ottimizzazioni" per sè stessa. Infatti non è solo il problema del riconoscimento dell'applicazione o meno, ma di specifici aggiustamenti nell'utilizzo dei drivers. Quali dll usa? E come? Come fa Futuremark a stabilire se un'ottimizzazione è dannosa o meno? Chi ci dice che invece non abbia rimosso qualcosa di perfettamente funzionante e "lecito"? Oltretutto con la release ufficiale dei drivers 52.16 non sembra ci fossero state notizie di particolari problemi di visualizzazione o degrado dell'immagine nè in 3DMark nè nella maggior parte dei giochi, quindi qui non si parla di bilinear filtering al posto del trilinear, di abbassamento della resa delle texture o altri accorgimenti atti a minimizzare il carico di lavoro della GPU.
cut..
Hai ragione, è possibile che le modificazioni di FutureMark "mozzino" qualcosa che è solo un'ottimizzazione, non un trucco. Ma d'altro canto nell'articolo che ti ho citato FM afferma: "The only change in build 340 is the order of some instructions in the shaders or the registers they use. This means that new shaders are mathematically equivalent with previous shaders. A GPU compiler should process the old and the new shader code basically with the same performance. Of course, if there are application specific optimizations in the driver that depend on identifying a shader or parts of it, then you might see performance differences because these optimizations will not work if the driver is not able to detect the shader"
Io la intendo così: Alla FM hanno solo cambiato l'ordine di certe istruzioni. Alla NVidia si sono trovati col problema di un compilatore che non riesce ad ottimizzare l'ordine delle istruzioni se queste non sono in un certo ordine (viene fuori un gioco di parole, ma è così) e mi sembra una cosa molto stupida, ma sto parlando da ignorante di programmazione dell'hw.
Ora né io né voi possiamo dire chi prende mazzette e chi no, e SE le mazzette ci sono, cmq mi pare strano che FutureMark abbia lasciato una patch solo per modificare l'ordine di alcune istruzioni, ma se il compilatore Nvidia non riesce a "star dietro" ad un codice solo perché questo non è come se lo aspetta, imho saranno cavoli di quelli che l'hanno sviluppato!:)
E chi vi scrive sta utilizzando una ATI Radeon 9600.
Io ho una Voodoo5 5500, una GeForce2 MX 400 (in fase di modding [B]mooolto[\B] spinto) e una Radeon 8500 in attesa di overvolt serio. Tiè! :D
leoneazzurro
13-11-2003, 14:41
Rimane da capire come mai i giochi non ne risentono e il test Futuremark si. Potrebbe anche darsi che il benchmark "vada in conflitto" con i drivers. Però leggevo che la diminizione delle prestazioni non si avrebbe nei test sul pixel shader (che secondo Futuremark è l'unica cosa che han cambiato) ma sul vertex shader.
Quindi, se questo è vero:
a) è un bug
b) Futuremark non sta dicendo la verità e han cambiato qualcosa di più che non il test sul pixel shader
^TiGeRShArK^
13-11-2003, 17:59
allora... cambiando l'ordine delle istruzioni, se all'interno dei driver vi sono delle ottimizzazioni relative a quel particolare shader (e bada bene non tutte le ottimizzazioni comportano una perdita di qualità, è possibile alle volte avere già memorizzati i risultati di un esecuzione dello shader e utilizzare quei risultati anzikè rieseguire il tutto) quello shader non verrà riconosciuto e quindi le ottimizzazioni in questione non potranno essere effettuate.
Non dimentikiamo che il 3dmark è un BENCHMARK e quindi mi pare giusto ke dovrebbe confrontare il raw power delle skede video, senza nessuna ottimizzazione.
Questo può essere ottenuto solamente seguendo gli standard e sperando ke le case produttrici di skede video non "trukkino" i loro driver, ma poikè come abbiamo visto non è così allora futuremark è stata costretta ad agire in questo modo per riequilibrare i risultati che altrimenti risultavano falsati.....
Originariamente inviato da STICK
per la FX 5800 ultra se non sbaglio ci fu un periodo la voce di presunti danneggiamenti al chip video durante la visione di filmati in dvd o altro,a causa dell'inattivazione del flow-fx e del conseguente innalzamento di temperatura?(o era il contrario col flow-fx che si attivava e dava fastidio?)Problemi risolti con una release succssiva di driver,mi sembra;cosa che creo' polemiche al pari di questa su ATI.
correggetemi se sbaglio.
Era durante l'uso di uno screensaver, i driver funzionavano in modalità normale (quindi fx-flow al minimo) quando invece la gpu era fortemente stressata dalla grafica 3d dello SS.
dragunov
13-11-2003, 20:57
Ma si può considerare questo come un bench efficace?
Visto le ultime notizie di nvidia penso che futuremark cerchi di riguadagnarsi un nome!
Originariamente inviato da ^TiGeRShArK^
allora... cambiando l'ordine delle istruzioni, se all'interno dei driver vi sono delle ottimizzazioni relative a quel particolare shader (e bada bene non tutte le ottimizzazioni comportano una perdita di qualità, è possibile alle volte avere già memorizzati i risultati di un esecuzione dello shader e utilizzare quei risultati anzikè rieseguire il tutto) quello shader non verrà riconosciuto e quindi le ottimizzazioni in questione non potranno essere effettuate.
Se così fosse bisognerebbe scrivere uno shader sostitutivo per ogni shader presente al mondo. Direi che come cosa è discretamente impegnativa, passi che gli shader non sono di miliardi di righe, ma aggiungi oggi, aggiungi domani, tra un anno chi vorrà scaricarsi i driver cosa dovrà scaricarsi? 100mb? :)
Da quanto ho appena letto le dx9 non buttano il codice degli shaders direttamente alla gpu ma generano un "universal code" che viene poi tradotto in istruzioni da spedire alla gpu e digeribili dalla gpu. Probabile che il compilatore (se si tratta di compilatore universale e che cmq, come altri hanno detto non esattamente, non solo riordina le istruzioni, ma sostituisce veri e propri shaders) intervenga tra "universal code" e codice macchina.
Dopo aver visto quanto stava facendo nvidia ATI aveva fatto il suo tentativo riordinando gli shaders nel 3dmark 2003 ed ottenendo così un guadagno prestazionale nell'ordine del 2 o 3% una ottimizzazione che andava però a 'riscrivere' porzioni del codice del 3dmark quindi anche se limitato si tratterebbe pur sempre di un imbroglio. In seguito agli avvisi di futuremark nessun codice specifico è stato più utilizzato da ATI.
Ma per tornare al problema attuale bisogna considerare che, Bisogna considerare che, purtroppo, le schede nvidia sono del 50% meno performanti rispetto alle r3xx nell'esecuzione dei pixel shaders 2 caratteristica fondamentamentale del directx9.
Nvidia inizialmente con il CG (adesso non più supportato per via degli alti costi dovuti alla necessità di continuo aggiornamento) voleva indurre gli sviluppatori ad abbandonare gli shaders standard in favore di un pallido surrogato supportato nativamente dalle gpu nvidia, surrogato che sia pure con qualità inferiore ottiene performance paragonabili a quelle di ATI e quindi avrebbe permesso alla casa californiana di salvare la faccia.
I programmatori nvidia sono arrivati al punto di tralasciare gli effetti di shaders dell'acqua nel 3dmark 2003 'nature' ed altre cose simili, a screditare gli sviluppatori di Futuremark ed abbandonare il supporto a questa software house tutto perchè in Futuremark si ostinavano e continuano ad ostinarsi a cercare di ottenere un bench il più obiettivo e soprattutto 'standard' possibile.
Il nuovo 'Unified Compiler' di nvidia presente nei nuovi drivers ha parzialmente risolto il problema dei propri creatori decretando così la morte del CG... in pratica il codice potenzialmente lento su schede nvidia viene di fatto tradotto e ricompilato una tantum dai drivers in nuovo codice più performante ed ottimizzato per l'hardware (non userebbe più gli shaders previsti dallo standard)... (chi conosce il .net framework pensi al concetto di gestione del codice all'interno del common language runtime) a prima vista può sembrare la soluzione ideale ma non è così, per pure esigenze commerciali e di performance non viene di fatto utilizzato il directx 9 nelle sue piene potenzialità e la perdita qualitativa in alcuni casi risulta evidentemente percepibile.
Uniamo a questo l'esigenza di stare al passo che ha spinto nuovamente nvidia a ricorrere a schede overcloccate di fabbrica, schede schede quali le 5900 ultra che non funzionerebbero senza grossi dissipatori.
Il tutto è fondato su un ragionamento semplice: il primato nel settore high-end assicura le vendite nel middle-end.
Da un lato abbiamo Nvidia che pur di non ammettere la sconfitta inganna e prende in giro i suoi stessi acquirenti sperando così di salvare la faccia... dall'altro lato futurmark con dei programmatori, tempo fa denigrati pubblicamente da nvidia che vogliono salvare il proprio orgoglio e battersi per un eseguire il proprio test senza tagli nella qualità del rendering... omegeneamente per tutte le marche di schede.
A Corsini... la verità può pesare e lasciare con l'amaro in bocca l'atto di ammeterla così, pubblicamente (a volte anche con quelche nota di colore), non vuol dire alimentare dei flame o essere dei troll, questa situazione non piace neppure a me ed a rimetterci siamo noi tutti, purtroppo .
Scusa ma a parte tutti i discorsi filosofici sul fatto che Nvidia ti sta prendendo in giro eccetera...
Tu credi veramente che il riorganizzare il codice voglia dire non eseguire più codice standard? Forse ti sfugge un pelo l'architettura dei due chip e cosa voglia dire codice standard. Fai un discorso senza senso, tecnicamente errato dalla partenza all'arrivo. E non sarò certo io a spiegartelo visto che esistono post di persone ben più erudite di me sul forum che lo spiegano per filo e per segno. Ma probabilmente manco l'hai letto. Amen.
cdimauro
13-11-2003, 23:26
Riordinare il codice in maniera da eseguire più velocemente una particolare funzione, purché sia MATEMATICAMENTE EQUIVALENTE a quella originale, non è una cosa che mi fa gridare allo scandalo. Assolutamente. Per me si tratta di un'ottimizzazione legittima.
Questo se tale principio viene applicato sistematicamente a TUTTE le applicazioni/giochi.
Diversa cosa è sostituire in blocco un pezzo di codice/shader perché è stata riconosciuto che l'applicazione richiedente è 3DMark, Quake, ecc. Questa è una cosa che, francamente, MI DISGUSTA.
Per tornare all'oggetto del contendere, francamente trovo MOLTO DIFFICILE che il 3DMark, in quanto applicazione, riesca a disattivare delle funzionalità che sono presenti a livello di driver, e che vengono utilizzate da particolari chiamate alle API delle DirectX.
Non che la cosa risulti impossibile (basta scrivere un driver che permetta di ottenere certi privilegi anche sotto NT/2000/XP, e si potrebbero fare parecchie cose "sporche"), ma stiamo parlando di un'azione di cracking che richiede non poche conoscenze e tempo per metterle in pratica.
Sarebbe interessante analizzare le differenze fra la build 330 e la 340 per andare a vedere se realmente è stato cambiato il solo codice di alcuni shader, ma anche quest'operazione non è così semplice.
A mio avviso è (molto) probabile che i nuovi shader presentino delle sequenze di istruzioni che non siano riconosciute come "pattern" dal nuovo compilatore nVidia, che quindi non riesce a convertire nelle appropiate sequenze che consentono di sfruttare meglio l'architettura NV30.
Queste sono solamente mie supposizioni, ovviamente. :)
Scusa ma tu credi VERAMENTE che l'Unified Compiler si limiti solamente a cercare di riordinare gli shaders ?
Noi sai che nv3x ha alternative più performanti rispetto al codice standard. Non sai che nelle precedenti cheat nvidia aveva sostituito completamente gli shaders dell'acqua di mother nature con versioni proprietarie (e qualitativamente inferiori) ?
Come credi che possano raggiungere le prestazioni volute ?
Altro esempio: nvidia dopo la storia del processo produttivo avava dichiarato anche che era in ritardo con il progetto geforce FX per colpa della tecnologia 3dFx in esso contenuta che doveva essere 'adattata'
Tu ci credevi ?
Originariamente inviato da DjLode
Scusa ma a parte tutti i discorsi filosofici sul fatto che Nvidia ti sta prendendo in giro eccetera...
Tu credi veramente che il riorganizzare il codice voglia dire non eseguire più codice standard? Forse ti sfugge un pelo l'architettura dei due chip e cosa voglia dire codice standard. Fai un discorso senza senso, tecnicamente errato dalla partenza all'arrivo. E non sarò certo io a spiegartelo visto che esistono post di persone ben più erudite di me sul forum che lo spiegano per filo e per segno. Ma probabilmente manco l'hai letto. Amen.
Scusa DJLode ma sei un pò ingenuo, ed è a causa di questa legittima ingenuità e buona fede che ci fregano.
Semplicemente non è sufficiente solo riorganizzare gli shaders per ottenere prestazioni paragonabili a quelle di Ati in determinate situazioni, questo è risaputo.
Lo è prova evidente ed inconfutabile il fatto che pur potendo limitarsi a riorganizzare solo gli shaders nella precedente versione della cheat sul 3dmark nvidia per raggiungere ATI gli shaders sono stati totalmente riscritti con codice dedicato nv30 cosa per cui anche è nato il CG.
L'architettura nv30 contiene alternative performanti ad effetti standard su cui è debole. E' per questo che nv30 integra più transistors di r300 è per sfruttare questo che è nato CG e la sua evoluzione l'Unified compiler.
A volte non ho tempo per dileguarmi, e nessuno mi paga per farlo, su una cosa puoi star certo ho ben presente cosa sia codice standard e non mi piace chi per vendere tenta di rifilarci bugie su bugie, per questo non mi piace nvidia.
Originariamente inviato da pg08x
Scusa ma tu credi VERAMENTE che l'Unified Compiler si limiti solamente a cercare di riordinare gli shaders ?
[/B]
Questo di preciso dove lo avrei detto?
Noi sai che nv3x ha alternative più performanti rispetto al codice standard.
No, dai spiegamelo che ho proprio intenzione di capire dove le FX non eseguano codice standard. Ho proprio voglia di ridere :)
Non sai che nelle precedenti cheat nvidia aveva sostituito completamente gli shaders dell'acqua di mother nature con versioni proprietarie (e qualitativamente inferiori) ?
Come credi che possano raggiungere le prestazioni volute ?
No, dai non sapevo niente!!!!! (p.s. è retorica la frase)
Altro esempio: nvidia dopo la storia del processo produttivo avava dichiarato anche che era in ritardo con il progetto geforce FX per colpa della tecnologia 3dFx in esso contenuta che doveva essere 'adattata'
Tu ci credevi ?
Scusami ma qui ci vuole un ROTFL carpiato con doppio salto mortale. O hai un link che riporti questa cosa o per favore, evita di parlare inventando cose solo per scatenare flame. Ti prego, ci fai solo la figura del troll.
Originariamente inviato da pg08x
Scusa DJLode ma sei un pò ingenuo, ed è a causa di questa legittima ingenuità e buona fede che ci fregano.
[/B]
Hai ragione, è 2 mesi che sono nel campo dell'informatica, sono soloo un ingenuo che crede a tutto quello che i PR mi dicono.
Semplicemente non è sufficiente solo riorganizzare gli shaders per ottenere prestazioni paragonabili a quelle di Ati in determinate situazioni, questo è risaputo.
Sai anche spiegarmi il perchè così ti porto anche a capire il perchè dicendo che le FX non eseguono codice standard hai detto un'inesattezza?
totalmente riscritti con codice dedicato nv30 cosa per cui anche è nato il CG.
Ok, non hai manco la più pallida idea di cosa sia il CG, vuoi che a grandi linee te lo spieghi?
L'architettura nv30 contiene alternative performanti ad effetti standard su cui è debole. E' per questo che nv30 integra più transistors di r300 è per sfruttare questo che è nato CG e la sua evoluzione l'Unified compiler.
Mai sentito inesattezza (e ora mi trattengo) del genere. NV30 contiene più transistor perchè ha alternative ad effetti? Mio dio ma che dici?
A volte non ho tempo per dileguarmi, e nessuno mi paga per farlo, su una cosa puoi star certo ho ben presente cosa sia codice standard e non mi piace chi per vendere tenta di rifilarci bugie su bugie, per questo non mi piace nvidia.
Ripeto, leggendo cose di cui sopra hai un casino in testa che non hai presente assolutamente nulla. Non ti piace Nvidia e non ci vuole di certo un genio a capirlo, ma da qui a stravolgere la realtà bhè ci stai facendo solo la figura del troll.
cdimauro
14-11-2003, 13:53
Originariamente inviato da pg08x
Scusa ma tu credi VERAMENTE che l'Unified Compiler si limiti solamente a cercare di riordinare gli shaders ?
Credo proprio di sì, almeno FINO A PROVA CONTRARIA. ;)
Noi sai che nv3x ha alternative più performanti rispetto al codice standard.
Certamente, ma l'importante è che la funzione finale sia MATEMATICAMENTE uguale a quella di partenza, come ho già scritto.
Non sai che nelle precedenti cheat nvidia aveva sostituito completamente gli shaders dell'acqua di mother nature con versioni proprietarie (e qualitativamente inferiori) ?
Lo so, ma questo non vuol dire che l'abbia fatto nuovamente. O a te basta che una persona abbia sbagliato anche una sola volta per marchiarla a vita come criminale? :rolleyes:
Come credi che possano raggiungere le prestazioni volute ?
Non lo so: dimmelo tu, visto che sai tutto... ;)
Altro esempio: nvidia dopo la storia del processo produttivo avava dichiarato anche che era in ritardo con il progetto geforce FX per colpa della tecnologia 3dFx in esso contenuta che doveva essere 'adattata'
Tu ci credevi ?
Io ricordo soltanto di VOCI che parlavano di tecnologia 3DFX integrate nelle nuove architetture, ma fino ad ora non ho mai trovato alcuna conferma. Probabilmente la tecnologia multisample dei nuovi chip è farina del sacco di 3DFX, ma ad oggi non ho prove per poterlo affermare.
Comunque non mi va di lapidare nVidia per partito preso: nel mio messaggio precedente ho soltanto riportato alcuni fatti derivanti dalla mia esperienza personale e delle mie SUPPOSIZIONI per cercare di dare delle spiegazioni a quanto si è verificato. A mio avviso, ripeto, il compilatore unified di nVidia non è in grado di "riconoscere" e quindi sostituire in maniera opportuna alcune sequenze di istruzioni (siano essere vertex o pixel shader), per cui si verifica quel calo di prestazioni.
Potrebbe anche darsi che Futurmark, conoscendo qualche dettaglio sul lavoro svolto da questo "compilatore", abbia appositamente riscritto gli shader con delle sequenze che sicuramente non sarebbero state riconosciute. E' un suodiritto (io posso scrivere le mie applicazioni come più mi aggrada e non devo dar conto a nessuno), ma se così fosse, il suo gesto sarebbe riprovevole. Forse non tanto quanto quelli di cui si è macchiata nVidia, ma ai miei occhi sarebbe moralmente inaccettabile un simile comportamento ("lo fa apposta", insomma).
Sul codice "standard" t'hanno già risposto nell'altro thread, per cui evito di farlo: mi allineo a quanto detto da fek tempo addietro. Diciamo che il modello Ati si avvicina più al tipo di programmazione "naturalmente usata" dai coder, mentre quello nVidia no (per cui ne risentono le prestazioni). Tutti qui.
Originariamente inviato da cdimauro
Io ricordo soltanto di VOCI che parlavano di tecnologia 3DFX integrate nelle nuove architetture, ma fino ad ora non ho mai trovato alcuna conferma. Probabilmente la tecnologia multisample dei nuovi chip è farina del sacco di 3DFX, ma ad oggi non ho prove per poterlo affermare.
Vuoi ridere sul serio?
Come sai la prima ad usare il pattern Rotated Grid per l'AA è stata 3dfx. Sai ora come ora cosa usa Nvidia? L'Ordered Grid. E Ati? Il Rotated Grid. Dalla serie abbiamo la migliore tecnologia sulla faccia della terra per l'AA e non la usiamo :)
cdimauro
15-11-2003, 06:46
Questa non la ricordavo proprio. :)
Grazie per l'informazione...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.