View Full Version : nVidia contro Futuremark
Redazione di Hardware Upg
13-11-2003, 16:41
Link alla notizia: http://news.hwupgrade.it/11213.html
Diatriba tra le due società: l'ultima build di 3DMark03 parrebbe in grado di disabilitare alcune funzioni dei driver ForceWare 52.16
Click sul link per visualizzare la notizia.
mah, FutureMark......., benchmark......., ottimizzazioni......., insomma, la solita storia!!!!!!
suppostino
13-11-2003, 17:03
E se ci sbarazzassimo di Futuremark e Nvidia e vivessimo felici e contenti???
Naaaa, poi sai la noia nel mercato delle schede video :D
halduemilauno
13-11-2003, 17:05
non credo che futuremark una bella mattina si alza e fa: fammi controllare sti driver.
no credo che dietro a tutto questo c'è qualcuno con un forte interesse.
penso che invece una mattina nVidia si alza e fa: fammi acquisire 'sti produttori di benchmark :-P
halduemilauno
13-11-2003, 17:10
Originariamente inviato da azrael
penso che invece una mattina nVidia si alza e fa: fammi acquisire 'sti produttori di benchmark :-P
se gli si rivoltano contro significa che chi li ha comprati è un'altro.
Ma chi se ne frega se con 3D Mark 2003 fa più punti una Radeon o una GeForce ???
E' nei giochi che sei vede la differenza, e per ora ATi e nVidia sono esattamente allo stesso livello, sia di prezzi che di prestazioni.
Personalmente ritengo che convenga comprare quella meno costosa (bulk), tanto sono tutte uguali :)
*Pegasus-DVD*
13-11-2003, 17:28
stesso livello ??????????????? LOOOOOOOL
Basta driver cheatati, tanto le Geffo le prendono su lo stesso dalle Radeon!!!
halduemilauno
13-11-2003, 17:30
Originariamente inviato da Manwë
Ma chi se ne frega se con 3D Mark 2003 fa più punti una Radeon o una GeForce ???
E' nei giochi che sei vede la differenza, e per ora ATi e nVidia sono esattamente allo stesso livello, sia di prezzi che di prestazioni.
Personalmente ritengo che convenga comprare quella meno costosa (bulk), tanto sono tutte uguali :)
questo è un'altro discorso. e cmq sono daccordo.
ciao.
magilvia
13-11-2003, 17:31
Quello che interessa a noi è questo:
Chiaramente, nel caso in cui l'ottimizzazione dipende dall'identificazione o meno dello shader è possibile riscontrare dei divari prestazionali poichè l'ottimizzazione potrebbe non essere in grado di identificare l'applicazione dello shader.
In pratica significa che per avere prestazioni massime con l'nvidia bisogna aspettare che nvidia rilasci il driver che ottimizzi proprio quella applicazione altrimenti l'ottimizzazione non funziona. Quindi se io compro un titolo poco diffuso che magari nvidia non ha alcun interesse ad ottimizzare mi girerà sempre molto più piano che se avessi una scheda ati.
Questo fa riflettere...
dragunov
13-11-2003, 17:42
Unified Compiler ,ha ha che mera figura!
leoneazzurro
13-11-2003, 17:46
Questo è quanto dice Futuremark. Al contrario NVIDIA dichiara che il suo compilatore funziona per tutte le applicazioni. E dovrebbe essere così, visto che il compilatore dovrebbe (a quanto se ne è saputo finora) soltanto riordinare le istruzioni e mantenere in memoria gli shader.
Quello che non andava in Nvidia in precedenti versioni erano "ottimizzazioni" che danneggiavano pesantemente la qualità di immagine (mancanza di filtri e texture, ecc.).
Questo non pare il caso attuale.
magilvia
13-11-2003, 17:51
Al contrario NVIDIA dichiara che il suo compilatore funziona per tutte le applicazioni.
Appunto questo è quello che dichiara nvidia.
Ora nvidia di sicuro vuole spingere i suoi prodotti mentre futermark non è dimostrato che voglia denigrare nvidia. Quindi ciò che dice futermark è a mio avviso leggermente più affidabile.
non so perch'e' ma ho come un senso di nausea
:Puke: :Puke: :Puke: :Puke: :Puke:
hermes3d
13-11-2003, 17:59
Il nuovo complier, però non è altro che un tool automatico di tuning che ottimizza le performance Pixel Shader su tutte le applicazioni e non solamente su alcune specifiche.
--------------------------------------
Non ci rendiamo conto che 3DMark è un bench e come tale deve dare come risultato quello di farci conoscere le potenzialità di una scheda. Sappiamo benissimo che perte integrante dell'hardware, in senso stretto, sono proprio i drivers che abilitano o meno delle accelerazioni alla scheda. Ora diciamo che Nvidia è stata in grado di ottenere in qualsivoglia maniera le accelerazioni, su indicate, su ogni applicazione. Quale è il problema o la magagna? Credo che quest'accelerazione come ben specificato si noti in OGNI applicazione. Perciò perchè non farne un pregio invece che accanirsi contro? Secondo me è un valore aggiunto che acquista la scheda in ogni occasione e non un trucco per farsi "bella" solo nel più rinomato bench 3D. Vorrei che mi deste un vostro parere a riguardo.
Come risolvere il problema: non usare il 3d mark 2003 ma Gunmetal che è molto meglio....
Tra i 2 litiganti come al solito il 3 gode ,cmq ci manca solo che quelli della futuremark si mettono a fare skede video :D
Jimmy3Dita
13-11-2003, 18:22
infatti il problema e' di Nvidia: evidentemente alcune ottimizzazioni per il Futuremark non sono piu' valide con la nuova patch del 3dmark.
In poche parole non e' la scheda che con la nuova patch va il 15% in meno, ma era il Futuremark che senza la patch segnava il 15% in piu' grazie alle vecchie routine "fregapunti"! :D
magilvia
13-11-2003, 18:27
Veramente la mia idea era già chiara. nvidia dichiara che le ottimizzazini vanno con tutte le applicazioni. futuremark no. A chi credere? Ho già risposto.
marziodivx
13-11-2003, 18:30
non cisono dei test fatti con i catalist 3.9 e gli ultimi detonator con quake3,UT2003,ecc....
cosi possiamo vedere subito se Nvidia ha torto o no.
se in un gioko il punteggio risulta superiore x ati mentre con il banch nvidia tiene testa allora è vero ke i driver barano.
ma se fosse il contrario allora è futuremark ke imbroglia.
concordo con LASA,
alla fine dei conti chi si compra una scheda grafica per far girare solo bench? I
nvito HWUpgrade ad usare come bench Gun Metal, un gioco deludente, ma dalla qualità visiva impressionante con una grafica e un numero di poligoni ed effetti da mettere in ginocchio le macchine più potenti, allora sì che vedremmo realmente la resa dell'HW sotto esame.
OverClocK79®
13-11-2003, 18:42
Gun Metal può essere considerato di parte nVidia
nn è mai finita
ci vorrebbe un gioko/benk sviluppato da terze parti totalmente disinteressate alla cosa
ossia impossibile
BYEZZZZZZZZZZZZZ
secondo me NVIDIA fa più bella figura a stare zitta!!
Ciao Ciao
Dumah Brazorf
13-11-2003, 18:49
Originariamente inviato da Andala
concordo con LASA,
alla fine dei conti chi si compra una scheda grafica per far girare solo bench? I
nvito HWUpgrade ad usare come bench Gun Metal, un gioco deludente, ma dalla qualità visiva impressionante con una grafica e un numero di poligoni ed effetti da mettere in ginocchio le macchine più potenti, allora sì che vedremmo realmente la resa dell'HW sotto esame.
Beh ma già non si guarda molto al risultato del 3DMark nelle recensioni.
Se noti i risultati di questo benchmark stanno solo su una pagina su 7-8 anche + di test.
Non ci sono bench dei 3.9 ma ci sono bench con i 52.16, su hardocp c'è una bella recensione in cui vengono messi in evidenza alcuni "difetti" nei drv nVidia, in special modo con Halo da questa release hanno cominciato a far sparire alcune luci, come in Aquamark3... guarda caso le GF hanno colmato il gap prestazionale con le ATI :D
Gunmetal(Bench) non mi pare molto attendibile, è l'unico gioco DX9 esistente sulla terra ad andar meglio con le NV invece che con ATI, è più l'eccezione che la regola.
Su Beyond3d c'è un confronto di immagini prese con una 5950 con e senza patch 340, ovviamente diverse tra di loro.
Date un'occhiata, ciao
Allora che dobbiamo fare, portare doni votivi agli dei per far sì che Matrox riprenda la corsa del 3D, ST torni al mercato delle schede grafiche e XGI immetta un prodotto convincente per far sì che la concorrenza si riaccenda, la corsa alla qualità torni protagonista e i prezzi scendano a tutto vantaggio dei consumatori.
Ditemi allora quale divinità pregare!
Niente magia nera, prego.
Blackace
13-11-2003, 20:20
lol, mi sembra quasi la legge del contrappasso... 3dfx si è trovata in difficoltà perchè in ritardo su tecnologie che peraltro non sarebbero servite molto su quella generazione di schede, nvidia ora sta soffrendo perchè in ritardo con le features del futuro immediato.
certo faticherei a spendere i soldi per una scheda già vecchia...
yossarian
13-11-2003, 20:24
basterebbe utilizzare, per test più seri, lo shadermark, che è l'unico test che può definirsi DX9 e non è facilmente truccabile (data la presenza di diversi anti detect e la possibilità di muovere a piacimento gli oggetti (si evitano così cheat analoghe ai clipping planes che abbiamo visto nel 3DMark).
Capisco che non sia basato sul motore grafico di un gioco, pero non è ottimizzato per nessuno, non è basato su nessuna architettura ma solo sulle specifiche DX ed è l'unico bench in cui i PS2.0 sono compilati integralmente in HLSL (oltre ad essercene un buon numero e non i 3 o 4 dei presunti bench DX9 più noti).
Dopo aver visto quanto stava facendo nvidia ATI aveva fatto il suo tentativo riordinando gli shaders nel 3dmark 2003 ed ottenendo così un guadagno prestazionale nell'ordine del 2 o 3% una ottimizzazione che andava però a 'riscrivere' porzioni del codice del 3dmark quindi anche se limitato si tratterebbe pur sempre di un imbroglio. In seguito agli avvisi di futurmark nessun codice specifico è stato più utilizzato da ATI.
Ma per tornare al problema attuale bisogna considerare che, purtroppo, le schede nvidia sono del 50% meno performanti rispetto alle r3xx nell'esecuzione dei pixel shaders 2 caratteristica fondamentamentale del directx9.
Nvidia inizialmente con il CG (adesso non più supportato per via degli alti costi dovuti alla necessità di continuo aggiornamento) voleva indurre gli sviluppatori ad abbandonare gli shaders standard in favore di un pallido surrogato supportato nativamente dalle gpu nvidia, surrogato che sia pure con qualità inferiore ottiene performance paragonabili a quelle di ATI e quindi avrebbe permesso alla casa californiana di salvare la faccia.
I programmatori nvidia sono arrivati al punto di tralasciare gli effetti di shaders dell'acqua nel 3dmark 2003 'nature' ed altre cose simili, a screditare gli sviluppatori di Futuremark ed abbandonare il supporto a questa software house tutto perchè in Futuremark si ostinavano e continuano ad ostinarsi a cercare di ottenere un bench il più obiettivo e soprattutto 'standard' possibile.
Il nuovo 'Unified Compiler' di nvidia presente nei nuovi drivers ha parzialmente risolto il problema dei propri creatori decretando così la morte del CG... in pratica il codice potenzialmente lento su schede nvidia viene di fatto tradotto e ricompilato una tantum dai drivers in nuovo codice più performante ed ottimizzato per l'hardware (non userebbe più gli shaders previsti dallo standard)... (chi conosce il .net framework pensi al concetto di gestione del codice all'interno del common language runtime) a prima vista può sembrare la soluzione ideale ma non è così, per pure esigenze commerciali e di performance non viene di fatto utilizzato il directx 9 nelle sue piene potenzialità e la perdita qualitativa in alcuni casi risulta evidentemente percepibile.
Uniamo a questo l'esigenza di stare al passo che ha spinto nuovamente nvidia a ricorrere a schede overcloccate di fabbrica, schede schede quali le 5900 ultra che non funzionerebbero senza grossi dissipatori.
Il tutto è fondato su un ragionamento semplice: il primato nel settore high-end assicura le vendite nel middle-end.
Da un lato abbiamo Nvidia che pur di non ammettere la sconfitta inganna e prende in giro i suoi stessi acquirenti sperando così di salvare la faccia... dall'altro lato futurmark con dei programmatori, tempo fa denigrati pubblicamente da nvidia che vogliono salvare il proprio orgoglio e battersi per un eseguire il proprio test senza tagli nella qualità del rendering... omegeneamente per tutte le marche di schede.
A Corsini... la verità può pesare e lasciare con l'amaro in bocca l'atto di ammeterla così, pubblicamente, non vuol dire alimentare dei flame :mad: questa situazione non piace neppure a me ed a rimetterci siamo noi tutti, purtroppo .:(
Io la vedo diversamente...
Tecnologicamente parlando attualmente la ATI ha una scheda (progetto) piu performante... (come potenza pura)
La nvidia un po meno... sia perche ha voluto fare il passo piu lungo della gamba, strozzando memorie e gpu (pipeline ed unita multitexture, e compagnia bella) ed e' stata presa in contro piede dalla Ati che poco dopo ha sfornato cio che nvidia avreddo dovuto sfornare gia dopo le famose GF2 Ti & Gf3...
Ed ecco il sorpasso delle serie 9500 & 9700.. proprio una generazione avanti ad nvidia, sottolineando pero che precedentemente Ati era 2 generazioni indietro... Complimenti ad ATI che non ha risparmiato, strada intrappresa invece da NVIDIA.
Successivamente e quotidianamente sta rattoppando qua e la per raccimolare in prestazioni (5700Ultra & 5950U), ma e' ammalappena sufficiente (MA NON CI POTEVA PENSARE PRIMA?)
Nvidia prima tecnologicamente era una spanna davanti alla concorrenza...
Prima svendeva i suoi mostriciattoli (mica tanto, ma almeno avevi la scheda migliore per i giochi e la grafica), oggi invece ha iniziato a fare piu politica di businness (recupero di investimenti fatti in passato) invece che di beneficenza, che pero aveva decretato il suo successo in passato... e NVIDIA "era" sinonimo di potenza bruta.
Tornando al discorso attuale...
Futuremark essendo una societa' che ha decretato la sua fortuna, proprio a ruota con Ati & NVIDIA... purtroppo si trova nella situazione di creare un qualcosa di imparziale...
Per fare cio' purtroppo e' costretta a eliminare le varie ottimizzazioni software se cosi possiamo definirle...
Ati e' sempre stata scarsa in quanto a driver, mentre Nvidia ha una schiera di ingegneri e cervelloni che spremono sangue dai sassi... insomma i re delle ottimizzazioni...
Futuremark quindi, non puo essere imparziale nel verificare le ottimizzazioni reali di una scheda, se purtroppo un buon 20% di tali prestazioni rilevate a cronometro dipendono dai driver...
Parliamoci chiaro, anche con le ottimizzazioni nvidia non fa bella figura... perche purtroppo come dicevo precedentemente, il progetto ATI e' molto piu potente (potenza bruta)...
Per cui e' anche giusto che nel 3dmark le Ati facciano di piu...
Purtroppo eliminando le ottimizzazioni totalmente, non e' colpa di futuremark se la nvidia perde molto di piu del dovuto (che e' gia appena sufficiente con le ottimizzazioni)...
Doveva pensarci prima... perche per potenza bruta la Ati e' messa meglio.
Un po come AMD rispetto al P4... insomma bisogna farsene una ragione... e sono le applicazioni che fanno la differenza.
Poi c'e' l'aspetto Pratico... i giochi...
A parte qualche eccezione... Nvidia e' avanti... e grazie anche alle sue ottimizzazioni software che con quel poco che ha a disposizione, riesce a sopperire a cio che ATI invece con hardware migliore, non e' in grado di fare... almeno attualmente...
Ma andando avanti le ottimizzazioni serviranno a poco... e senza una base hardware potente ci sara poco da fare... (emu8087, i drivespace e ram doubler, hanno sempre lasciato lasciato il posto a chi di dovere... per l'appunto all'hardware... chi e' del mestiere sa a cosa mi riferisco)
Perche una volta ottimizzato cio che c'e' da ottimizzare e che e' gia stato ottimizzato anni prima... Basta... e' arrivata al limite...
Non potra competere con cio che Ati raggiungera' tra 1 anno e che riuscira a sfuttare cio che la scheda puo sprigionare, quel poco di potenza assopita che pero risiede materialmente nella scheda, per cui nella battaglia dx9... e' Ati che alla lunga vincera'... battaglia che Nvidia ha perso in partenza... e 3Dmark2003 ne e' la prova ed osservatore imparziale e senza tranelli.
E' questa la forza di NVIDIA... le applicazioni reali e che ancora calzano gli calzano a pennello...
Ed al miglior supporto delle case costruttici... Immagino che i giochi li creino su piattaforma NVIDIA, perche per anni e' stata la regina incontrastata.... come oggi le applicaizoni in generale vengono create su piattaforma P4... e cio porta a lievi ottimizzaioni.
La cosa piu bella in assoluto sarebbe che la Nvidia creasse driver per la ATI... a quel punto potete immaginare cosa accadrebbe... =:)
Ma ovviamente e' fantascienza...
Cmq a voi le conclusioni...
Poi ripeto, che i giochi di oggi vadano 10 frame in piu con nvidia... e' un'altro discorso... e ne siamo tutti felici...
Ma Futuremark crea un test che in quelle condizioni (medesime per x entrambi le schede.... esse devono tirare fuori cio che possiedono ora e senza ottimizzazioni che possono aiutare in futuro... ma non FARNE la differenza in base al "solo" software... Mentre attualmente e' solo questo il criterio, che fa di nvidia cio che e'...
Il test testa la potenza hardware della scheda, non il lavoro maniacale degli ingegneri che lavorano al driver.
Ovviamente e' tutto un connubio... La potenza e' nulla senza controllo... :) dice una famosa pubblicita di pneumatici... e non ha tutti i torti...
Putroppo nvidia ha adottato questa politica del tanto con poco... perche se volesse... sarebbe in grado di stracciare anche la ATI... ma in realta' non vuole, e cerca solo di gonfiare le sue finanze... ormai ha capito come funzionano i giochi (finanziari) :)
Altra similitudine con Intel Vs AMD... vero?
Invece dovremmo dare le medaglie al valore a questi ingegneri dei driver... questi tizi quasi anonimi e che:
Il possibile e' stato fatto, l'impossibile lo stanno facendo, e per i miracoli si stanno attrezzando :)
3 cose:
1 - dov'è la faccina con le fette di prosiutto sugli occhi?
2 - è mai possibile che si parli male sempre e solo di nVidia. E gira di qua e gira di là nVidia ha solo dei problemi. Mi sono rotto le scatole. Perchè vi ostinate ancora e ancora a dar credito ad un'azienda così? Non vi siete rotti l'anima di essere costantemente messi in discusisone da tutto il mondo informatico? Io se avessi una scheda nVidia (e l'ho avuta) andrei in giro a testa alta...parlano tutti di me! Peccato che ne parlino male!
3 - Credo che il vero punto l'abbia centrato Magilvia chiedendo di riflettere se ha ragione nVidia o Futuremark...dove la prima ovviamente si deve discolpare e quindi spara sempre piu forte e tira l'acqua al suo mulino. La seconda dovendosi rapportare con tutti i costruttori di schede video fa le cose fatte a modo per essere piu imparziale possibile.
A voi l'ardua decisione...io la mia scelta l'ho gia fatta da tempo e finora si sta solo ricoprendo d'oro e non di merda.
Originariamente inviato da J0J0
Io la vedo diversamente...
JOJO nel tuo discorso non hai tenuto conto di una cosa fondamentale, il crollo di performance che si evidenzia se non viene mantenuto un rigido ordine di esecuzione degli shaders è un grosso bug architetturale che affligge l'attuale generazione di chip nvidia. Le cosidette 'ottimizzazioni' hanno portato in passato, e porteranno sempre a perdite qualitative più o meno evidenti.
Non esiste una soluzione definitiva quando ti vuoi scaldare e la coperta è troppo corta. Apprezzerei di più se certa gente al posto di investire in alleanze con le software house ed in complicate cheat software dedicasse le proprie risorse all'obiettivo di ottenere un hardware migliore. L'unified compiler non può sempre riuscire a riordinare gli shaders per tutte le combinazioni possibili, nulla è stato disabilitato da FutureMark ed al posto di lodare i workaround dei programmatori nvidia io, fossi in te, loderei piuttosto l'impegno, l'integrità e l'onestà dimostrata dai loro concorrenti che, per quanto nvidia bari si sono posti dei limiti che non vengono superati, in pratica certe cose non le fanno NON perchè non sono in grado ma bensì perchè le reputano un imbroglio nei confronti della loro clientela.
leoneazzurro
13-11-2003, 22:08
Originariamente inviato da magilvia
Appunto questo è quello che dichiara nvidia.
Ora nvidia di sicuro vuole spingere i suoi prodotti mentre futermark non è dimostrato che voglia denigrare nvidia. Quindi ciò che dice futermark è a mio avviso leggermente più affidabile.
Come lo è Sysmark per le performances dei processori?
Quando un'azienda fonda il suo guadagno sui benchmark, puoi star sicuro che smetterà di essere imparziale.
Adesso io sono stato e sono utente sia nVIDIA che ATI, e sinceramente non mi piace sempre lo sparare a zero e spesso a vanvera contro l'una o contro l'altra. E sempre coi soliti luoghi comuni (nVIDIA bara, ATI fa i driver che mandano in crash il sistema, ecc.).
Secondo me il progetto ATI attuale è migliore da molti punti di vista di quello nVIDIA in commercio, non ultimo perchè non soffre come nVIDIA se mancano adeguate ottimizzazioni. Ma dire che per questo nVIDIA fa schifo mi sembra eccessivo. C'era stato un sito tedesco che aveva fatto un'analisi molto accurata delle due architetture, per stabilire che nVIDIA produceva la massima potenza elaborativa se le istruzioni venivano ordinate in una certa maniera. Punto. Questa è la differenza. Se il compilatore di nVIDIA o le "ottimizzazioni" presenti nei driver sono volte solo al raggiungimento di questo scopo, ben vengano, e nessuno dovrebbe rimuoverle (come si comporterebbero i Pentium 4 se togliessimo le ottimizzazioni per il loro codice?). Se invece fanno diminuire la qualità di immagine, il discorso cambia (ma poi stabilire se un certo artefatto grafico sia un tentativo di ottimizzazione oppure un bug, lo sapreste determinare voi?) e nVIDIA ha sicuramente sbagliato quando ha introdotto certe cavolate nei suoi drivers. Ma non è detto che sia sempre così. la cosa che mi fa pensare parecchio è che la diminuizione delle prestazioni non si è verificata nei test del pixel shader (che a detta di Futuremark è stato la sola cosa ad essere toccata) ma nel vertex shader, che a detta di Futuremark non è stato sfiorato.
E' questo che mi porta alla conclusione che o c'è un bug che provoca conflitti tra i due programmi, oppure Futuremark ha toccato ben più di quello che dice.
Per ribadire l'importanza di una buona programmazione, prendiamo il caso dei giochi OpenGL (siccome esistono anche loro, e non solo quelli basati su DirectX, base del 3Dmark). In questi da sempre è stata nVIDIA a farla da padrone, e solo recentemente ATI ha ridotto le distanze come prestazioni e qualità di immagine in questo ambiente. Dovremmo quindi (ragionando alla rovescia) pensare che allora la soluzione ATI fa pena perchè è meno performante/ha qualità di immagine leggermente inferiore in questo ambiente? Oppure bisogna semplicemente pensare che i driver OpenGL di nVIDIA sfruttano meglio l'hardware di quanto facciano quelli ATI?
Io penso che con i driver 52.16 nVIDIA abbia fatto un grosso passo avanti rispetto a qualche mese fa, riducendo lo svantaggio rispetto ad ATI nell'ambito directX, e che l'hardware non sia poi così "scarso", ma piuttosto limitato dalla propria sensibilità al software che ci gira sopra. Poi pare che nelle direct X 9.1 qualche cosa cambierà, a quanto si dice.
Una cosa sola, per finire (ce l'ho solo coi più "facinorosi"). Se avete in antipatia una certa marca, semplicemente non compratela. Che cosa ci si guadagni a scrivere fiumi di parole intrise d'odio sinceramente non l'ho ancora capito.
x pg08x :)
ah... non avevo letto il tuo commento... precedente al mio post
quindi quel : io la penso diversamente era fuori luogo ed in base al commento degli altri... :)
con il tuo discorso invece sono daccordissimo :) dato che piu o meno siamo la :) io molto piu terra terra... tu molto piu tecnico
volevo solo puntualizzare... :)
si anche questo e' vero.... non ho dato degli incapaci ai tecnici ati... era solo per ampliificare cio che invece fa la controparte... poi chiamamolo barare o bravura o altro...
il problema e' che con la Ati... non c'e quasi bisogno di "barare" (in senso lato) proprio perche piu potente della concorrenza (purtroppo)
Il mio discorso era incentrato su questo...
:)
magilvia
13-11-2003, 23:32
perche purtroppo come dicevo precedentemente, il progetto ATI e' molto piu potente (potenza bruta)...
proprio perche piu potente della concorrenza (purtroppo)
Ma Jojo dicevi "purtroppo" anche quando era nvidia ad essere superiore ad ati? Io sono molto contento che la situazione si sia capovolta perchè la concorrenza..., ribasso dei prezzi..., prodotti migliori... ecc ecc lo sapete tutti ormai.
dotlinux
14-11-2003, 07:40
Complimenti leoneazzurro sei l'unico che ha espresso un parere serio!
Concordo su tutto.
Jedi_Master
14-11-2003, 08:25
Originariamente inviato da Carpix
secondo me NVIDIA fa più bella figura a stare zitta!!
Ciao Ciao
1- Carpix, hai troppo ragione!!
2- Gli interessi dietro al 3dmark sono enormi e' giusto che non ci siano trucchi almeno li'!
Scusa Jojo, quali sono i giochi in cui nVidia sta davanti? Che io sappia sono X2(non uscito), Gunmetal (di bellezza discutibile) e il motore di Quake3... Sinceramente non me ne vengono in mente altri, e considera quelli in cui ha recuperato il gap con cheat, come AquamNox (Mark) e Halo; ma in Warcraft, Fly Simulator, UT2003, Tomb Raider X ;), Max Payne 2 e cmq praticamente in tutti i casi in cui le prestazioni si misurano con FRAPS o utility di bench esterne al gioco ATI è davanti, e mica di poco in molti casi.
Addirittura in C&C che è nVidia way to play in qualche test è davanti, inteso fino a tot risoluzione e con o senza filtri.
Peccato che Tomb non sia piaciuto molto xchè è il gioco che usa maggiormente le DX9 x ora, come tipo di effetti; certo, Max Payne è più bello, ma è più legato a canoni di "realismo"...
Belle parole IcemanX, con cui concordo pienamente, peccato che molti nVidia user's non ci sentano da quest'orecchio. Tomb Rider su tutti, come dicevo pure io, è un'ottima piattaforma di test. Aspetteremo i prossimi giochi DX9 (Half Life 2 per es.)
Nvidia parli di boicottaggio basta vedere i suoi ultimi prodotti per capire quanto sia scarsa ad idee e
piu propensa al commerciale(usano i processori per fare le piadine).
Se vogliono tornare ad avere parola sul mercato(commento rivolto alle persone del forum) devono trovare prodotti nuovi, ma nuovi veramente non delle pezze a progetti del c...o nv30/31----nv35 ma un sistema nuovo con hd avanzato.SOno tutti buoni a tirare su il clock per ottenere piu prestazioni,ma e difficile trovare hd che con basso clock ottiene prestazioni(ATI in parte c'e`riuscita).Pensate a una 9800xt con le frequenze del fx5950 ultra cosa farebbe al 3dmark in termini di punteggio se bastano 10 mhz in piu di core a una 9600pro per fare oltre 200 punti in piu.
Comunque ora che si sono sputtanati dovrebbero mettersi a testa bassa e lavorare a un progetto attendibile almeno per riconquistare persone come me che sono passati da una rivatnt2 ultra a una radeon8500 poi una fx5200ultra e infine quello che presumo aver speso bene i miei soldi una 9600pro.
lucasantu
14-11-2003, 11:03
x pegasus ,guarda che la 9950 se nn mi sbnaglio , o n38 sta leggermente davanti ad ati ...
halduemilauno
14-11-2003, 11:09
Originariamente inviato da Wonder
Belle parole IcemanX, con cui concordo pienamente, peccato che molti nVidia user's non ci sentano da quest'orecchio. Tomb Rider su tutti, come dicevo pure io, è un'ottima piattaforma di test. Aspetteremo i prossimi giochi DX9 (Half Life 2 per es.)
ciao.
io ho una geffo2ti 250/400. ebbene a traod io gioco a 1024x768x32,ebbene io ci gioco alla grande.ovviamente senza filtri.
tutto questo per dire che non so spiegarmi come fanno schede nVidia ben più potenti e nuove della mia ad ottenere fps cosi bassi.
quindi credo che questo gioco non so per qual motivo non sia adatto a far da test. tutto questo è mia opinione dovuta a conoscenza diretta del gioco.
magilvia
14-11-2003, 11:11
...nVIDIA produceva la massima potenza elaborativa se le istruzioni venivano ordinate in una certa maniera. Punto. Questa è la differenza. Se il compilatore di nVIDIA o le "ottimizzazioni" presenti nei driver sono volte solo al raggiungimento di questo scopo, ben vengano, e nessuno dovrebbe rimuoverle...
Ma come fai a dire roba così ? In pratica vorresti costringere i programmatori a programmare solo in un determinato modo apposta per nvidia invece di rispettare gli standard. E se poi anche le altre case facessero così cosa deve fare il programmatore, fare 10 versioni diverse dello stesso gioco che vadano veloci su 10 marche diverse ?
leoneazzurro
14-11-2003, 11:16
Non hai capito. Le ottimizzazioni sono interne al driver. Lo sviluppatore non vede affatto una cosa del genere.
Poi per scrivere un pixel o vertex shader NON c'è uno standard (come diceva FEK, che se ne intende, in un altro thread in un'altra occasione), ma solo che il modo di scriverli fino ad oggi ha penalizzato l'hardware di nVIDIA.
E poi, scusate, se ci le ottimizzazioni per i processori e path specifiche per usare istruzioni SSE 1-2 o 3Dnow+ per i processori, perchè non ci dovrebbero essere per le schede grafiche?
Io, da user ATI, preferisco essere di vedute aperte piuttosto che fare tifo da stadio.
Mi sa che tutti dovete guardare un po piu in alto e non limitarvi alle apparenze ....è meglio Ati..è meglio nvidia ..quel benchè fasullo...la patch gli toglie il 15%...
Chi guarda a queste cose non fa altro che fare tifoseria da stadio ...come chi si arrabbia se la propria squadra perde..
nel mondo del calcio pero arrabbiarsi è lecito ma nel mondo dell' hardware mi sembra ridicolo..
allora imparate a guardare alla sostanza che è solo ed unicamente una:
IL RAPPORTO PREZZO PRESTAZIONI !!!!
io personalmente me ne frego se il top di gamma per un 3% è la scheda piu veloce del mondo , perche se per averla mi devo vendere un rene , per me quella scheda è classificata immondizzia.
5 giorni fa dovevo scegliere la mia nuova scheda , mi sono visto diverse recensioni , ero indeciso tra una 9600pro e una 5600ultra , tra le due va un pelo meglio la 5600u ....poi ho visto il listino prezzi e la 9600pro stava a 187 euro e la 5600 ultra a circa 250 euro....
a questo punto non mi sono certo messo ad esultare viva la 5600!
anzi per me la 5600u aveva perso di brutto il confronto e ho preso la radeon..
e poi francamente anche volendo entrare nella discussione delle ottimizzazzioni...ma chi cavolo si accorge di 15 % di performances in piu o in meno???
magilvia
14-11-2003, 12:37
Le ottimizzazioni sono interne al driver.
Quindi è valido il discorso che facevo prima: se nvidia ha voglia di fare i driver ottimizzati per il nuovo gioco che ti sei comprato bene sennò ti attacchi...
leoneazzurro
14-11-2003, 13:15
Più che altro potresti andare un pò più lento, ma credo che nVIDIA comunque otterrà risultati apprezzabili senza dover ottimizzare nulla se non il compilatore. L'importante per un giocatore, inoltre, non è il 3Dmark, ma il come si comporteranno i giochi. Anandtech e HardOCP (Kyle che non è mai stato troppo tenero nei confronti di nVIDIA in questo caso è andato invece molto cauto) hanno cominciato ad usare estensivamente suite di giochi molto larghe proprio per evitare questo tipo di problemi.
Credo poi che il problema sia più che altro da ricercare sul fatto che ogni gioco ha e avrà comportamenti migliori o peggiori sull'una o sull'altra architettura, anche senza ottimizzazioni.
Questo vale anche per ATI, visto che quando giocavo a Morrowind con le ombre attivate il gioco andava a rilento, e pure in Neverwinter Nights ancora qualche problemuccio c'è, anche prestazionale.
Ma invece che incacchiarmi con ATI e dirgli "maledetti bastardi" aspetto che risolvano il problema in una delle prossime release dei drivers.
x Halduemilauno
Non so se leggerai mai questo post visto il casino che c'è su quello di Corsini, cmq... ;)
Il motivo è presto spiegabile, credo che come me tu stia giocando senza farti problemi di bench e che quindi potresti vedere 50 fps o forse 25-20 senza saperlo, inoltre, senza offese, credo tu riesca a vedere più o meno la metà degli effetti disponibili, considerando che la maggior parte si ottengono solamente usando i PS, in particolr modo i 2. E' un particolare da non sottovalutare, ciò non vuol dire cmq che uno non possa divertirsi con UT2003 a 640x480 in wireframe :D
x IcemanX
io sono il primo a dire che l'hardware della nvidia e' inferiore... (dx9)
Ed ho anche detto che se nvidia facesse i driver per ati... sarebbe il massimo :)
Eppure nelle Dx8 da il suo massimo...
Il mio discorso voleva intendere che se va piu forte nelle dx8(un motivo ci sara' e il progetto era valido ma se non l'avessero strozzato)...
Perche non ci hanno pensato prima alla nvidia... sapevano che le dx9 erano alle porte, e non ci voleva la zingare per capire che alla gente sarebbe interessato solo di quelle (DX9, 10, e se c'erano le 11 ancora meglio)
E' nella natura dell'uomo volerlo sempre piu grosso... :P
Se non avevano voglia di cambiare troppo il progetto originario..... perche sono tornati indietro...???
Ci siamo ritrovati con schede gfx 5600 ultra che fanno meno di una Ti4600...
Questa e' la mia rabbia...
Avevano gia 4 unita di calcolo e 2 unita di texture???
perche ridurre a 2/2 o 4/1 o 0/0 o -0/-0 e per giusta diminuire la memoria come se non bastasse!?!?!!?
Sapevamo tutti che fine avrebbe fatto nvidia... se qualcuno avesse fatto un prodotto decente... (ed ati l'ha fatto.... ancora oggi la 9700pro e' una bomba, e non c'e' bisogno di comprare una 9800XT).
La Nvidi ha fatto male i suoi conti... attacco di presunzione???
Metterne 8/8 e qualche unita vertex & ps in piu... e ram minimo da 800mhz gia sulla 5200 lisca???? gli faceva male???
la 5800 di oggi ... sarebbe dovuta essere la 5200 di ieri...
invece di una generazione avanti... siamo in presenza di una generazione in meno quasi... e dove non arriviamo con l'hardware ritocchiamo col software... (si sono dati al risparmio volontariamente)
Come se domani maxtor fa uscire un disco da 20.000 e mette una cache da 512k invece di 16MB... affermando: "tanto di piu non serve... altrimenti il cliente si esalta troppo per le prestazioni che ne trarrebbe"...
Allora da domani... i dischi 4200rpm vanno meglio dei 7200...
Tanto il retro' va di moda....
Hanno voluto strafare... e troppo sicuri di se... o forse strategia finanziaria per dare al cliente un prodotto appena sufficiente...
Sappiamo tutti che questa e' la verita'... anche se 3dmark2003 puo essere considerato un caso limite...
Saro' molto schietto...
Io sono Pro Nvidia... ma a questo punto... ben gli sta ed i driver non possono fare sempre miracoli in ogni occasione (come concetto generale).
Aggiungo anche che di futuremark mi interessa poco :)
e che una scheda faccia 15000 invece di 24000 ancora di piu :)
Tanto non gioco :)
Se ho preferito nvidia e' solo per una questione di driver veramente...
Mazzulatore
15-11-2003, 16:46
Originariamente inviato da magilvia
Ma come fai a dire roba così ? In pratica vorresti costringere i programmatori a programmare solo in un determinato modo apposta per nvidia invece di rispettare gli standard. E se poi anche le altre case facessero così cosa deve fare il programmatore, fare 10 versioni diverse dello stesso gioco che vadano veloci su 10 marche diverse ?
Guarda che quel compilatore dovrebbe risolvere da principio questo problema, quindi...
... i quesiti invece secondo me sono:
- porta ad una riduzione della qualità? no, a quanto pare.
- Futuremark, poichè anch'essa tira acqua al suo mulino, ha disabilitato realmente il compilatore, sostenendolo un trucco, o è il compilatore incapace/incompleto/interdetto?
Originariamente inviato da Mazzulatore
Guarda che quel compilatore dovrebbe risolvere da principio questo problema, quindi...
... i quesiti invece secondo me sono:
- porta ad una riduzione della qualità?
Certamente, già in passato avevamo visto come per avere prestazioni paragonabili a quelle di ATI ad nvidia non basta cambiare l'ordine di esecuzione degli shaders ma deve bensì usare le proprie estensioni proprietarie ha già sostituito l'acqua in mother nature del 3dmark 2003 con codice proprietario che comporta perdite qualitative".
E' per dar modo agli sviluppatori di utilizzare queste estensioni che è nato il CG, adesso con l'unified compiler vengono forzate.
- Futuremark, poichè anch'essa tira acqua al suo mulino, ha disabilitato realmente il compilatore, sostenendolo un trucco, o è il compilatore incapace/incompleto/interdetto?
Per disabilitare il compilatore devi intervenire sul codice dei drivers e modificarlo. Futuremark ha usato chiamate directx standard non è detto che il compilatore riesca a 'ottimizzare' nel 100% dei casi.
halduemilauno
15-11-2003, 19:09
Originariamente inviato da IcemanX
x Halduemilauno
Non so se leggerai mai questo post visto il casino che c'è su quello di Corsini, cmq... ;)
Il motivo è presto spiegabile, credo che come me tu stia giocando senza farti problemi di bench e che quindi potresti vedere 50 fps o forse 25-20 senza saperlo, inoltre, senza offese, credo tu riesca a vedere più o meno la metà degli effetti disponibili, considerando che la maggior parte si ottengono solamente usando i PS, in particolr modo i 2. E' un particolare da non sottovalutare, ciò non vuol dire cmq che uno non possa divertirsi con UT2003 a 640x480 in wireframe :D
ciao.
che io non veda parte degli effetti mi era gia noto.
io ne facevo e faccio un discorso proprio di fps. cioè con la mia misera scheda(per carità mica mi offendo)gioco(come gia detto)a 1024x768 in maniera molto molto fluida(sempre come gia detto senza filtri), quindi non credo 20/25 ma ben di più. il tutto con una qualità che io riesco ad apprezzare, e aggiungo che da quando ho messo i 52.16 sia la qualità che la fluidità sono ancor più migliorati.
tutto qui. mio personale giudizio su un gioco che ho, e che si stupiva e si stupisce dei risultati che ben altre schede pare non riescano ad ottenere.
a presto.
:) :)
halduemilauno
15-11-2003, 19:14
Originariamente inviato da pg08x
Certamente, già in passato avevamo visto come per avere prestazioni paragonabili a quelle di ATI ad nvidia non basta cambiare l'ordine di esecuzione degli shaders ma deve bensì usare le proprie estensioni proprietarie ha già sostituito l'acqua in mother nature del 3dmark 2003 con codice proprietario che comporta perdite qualitative".
E' per dar modo agli sviluppatori di utilizzare queste estensioni che è nato il CG, adesso con l'unified compiler vengono forzate.
Per disabilitare il compilatore devi intervenire sul codice dei drivers e modificarlo. Futuremark ha usato chiamate directx standard non è detto che il compilatore riesca a 'ottimizzare' nel 100% dei casi.
come porta a una riduzione di qualità?
tutte le rece sono concordi nel dire che i 52.16 hanno portato un netto miglioramento, sia in qualità che in fluidità. e che hanno risolto i bug di visualizzazione.
bha!
quote:
--------------------------------------------------------------------------------
Originariamente inviato da pg08x
Certamente, già in passato avevamo visto come per avere prestazioni paragonabili a quelle di ATI ad nvidia non basta cambiare l'ordine di esecuzione degli shaders ma deve bensì usare le proprie estensioni proprietarie ha già sostituito l'acqua in mother nature del 3dmark 2003 con codice proprietario che comporta perdite qualitative".
E' per dar modo agli sviluppatori di utilizzare queste estensioni che è nato il CG, adesso con l'unified compiler vengono forzate.
--------------------------------------------------------------------------------
Come fai ad esserne così sicuro? Per caso, hai fatto un debug dell'ultimo driver e ti sei reso conto che ci sono porzioni di codice che fanno esattamente quello che dici tu, o che riconoscono un bench e/o "capiscono" che una determinata scena di un gioco è particolarmente pesante ed eliminano determinati effetti per aumentare le prestazioni? Oppure hai analizzato accuratamente i dettagli di immagini ottenute con e senza il compiler attivato e hai notato un evidente riduzione della qualità grafica? Se è cosi, beh, non ho nulla da ridire sulle tue affermazioni, anzi, mi unisco al coro. In caso contrario, non capisco come tu possa essere certo di poter trarre certe conclusioni. Quello che può essere o non essere successo in passato al massimo può sollevare dei dubbi + o - leciti e + o - forti, magari in questo caso molto forti e molto leciti (non intendo sindacare su questo); comunque credo che dovremmo evitare di proporre come certezze quelle che poi sono nostre opinioni personali, per quanto i nostri sospetti possano essere suffragati da fatti antecedenti.
Magari qualcuno di hwupgrade un bel test sulla qualità di immagine con e senza unified compiler (o magari confrontando questo driver con uno precedente che dia risultati inferiori in termini velocistici, per ottenere delle indicazioni) lo fa davvero, così ci togliamo ogni dubbio.
Ciao a tutti! :)
Mazzulatore
15-11-2003, 23:52
Originariamente inviato da xeal
quote:
--------------------------------------------------------------------------------
Originariamente inviato da pg08x
Certamente, già in passato avevamo visto come per avere prestazioni paragonabili a quelle di ATI ad nvidia non basta cambiare l'ordine di esecuzione degli shaders ma deve bensì usare le proprie estensioni proprietarie ha già sostituito l'acqua in mother nature del 3dmark 2003 con codice proprietario che comporta perdite qualitative".
E' per dar modo agli sviluppatori di utilizzare queste estensioni che è nato il CG, adesso con l'unified compiler vengono forzate.
--------------------------------------------------------------------------------
Come fai ad esserne così sicuro? Per caso, hai fatto un debug dell'ultimo driver e ti sei reso conto che ci sono porzioni di codice che fanno esattamente quello che dici tu, o che riconoscono un bench e/o "capiscono" che una determinata scena di un gioco è particolarmente pesante ed eliminano determinati effetti per aumentare le prestazioni? Oppure hai analizzato accuratamente i dettagli di immagini ottenute con e senza il compiler attivato e hai notato un evidente riduzione della qualità grafica? Se è cosi, beh, non ho nulla da ridire sulle tue affermazioni, anzi, mi unisco al coro. In caso contrario, non capisco come tu possa essere certo di poter trarre certe conclusioni. Quello che può essere o non essere successo in passato al massimo può sollevare dei dubbi + o - leciti e + o - forti, magari in questo caso molto forti e molto leciti (non intendo sindacare su questo); comunque credo che dovremmo evitare di proporre come certezze quelle che poi sono nostre opinioni personali, per quanto i nostri sospetti possano essere suffragati da fatti antecedenti.
Magari qualcuno di hwupgrade un bel test sulla qualità di immagine con e senza unified compiler (o magari confrontando questo driver con uno precedente che dia risultati inferiori in termini velocistici, per ottenere delle indicazioni) lo fa davvero, così ci togliamo ogni dubbio.
Ciao a tutti! :)
Infatti non aspettavo risposte... vabbeh qualcuno più bravo di me c'è sempre :rolleyes:
Anzitutto c'è da fare chiarezza... non basta dire che "in passato..." quindi anche adesso le ottimizzazioni consistono nello scalamento di qualità. QUA' NON SI E' PARLATO DI PERDITE DI QUALITA', il putiferio l'ha scatenato gainward/nvidia stavolta, non futuremark. Qualcuno ha barato oppure è il compilatore che non funziona sempre allo stesso modo con tutte le applicazioni. Io aspetterei i prossimi comunicati ufficiali (o i prossimi drivers puaahaahahahahah).
cdimauro
16-11-2003, 07:09
Non è così facile confrontare la qualità delle immagini per scoprire un eventuale cheating: un driver "furbo" (e ben fatto) si potrebbe accorgere della richiesta di memorizzare uno screenshot, e quindi generare un'immagine di qualità massima soltanto in questo caso, mentre normalmente potrebbe abbassarla...
Originariamente inviato da cdimauro
Non è così facile confrontare la qualità delle immagini per scoprire un eventuale cheating: un driver "furbo" (e ben fatto) si potrebbe accorgere della richiesta di memorizzare uno screenshot, e quindi generare un'immagine di qualità massima soltanto in questo caso, mentre normalmente potrebbe abbassarla...
E' una ipotesi. Solo che così facendo la banfa sarebbe facilmente scopribile eseguendo il benchmark prima senza prendere nessuno shot, e in secondo luogo prendendo vari shot così da far eseguire alla scheda il rendering al massimo livello qualitativo. In questo caso i risultati dovrebbero discostarsi. E se tu richiedessi uno shot di un frame che la scheda si è già calcolata? Dovrebbe ricalcolarlo :)
Insomma ipotesi (IMHO) interessante ma alquanto infattibile.
Originariamente inviato da xeal
quote:
--------------------------------------------------------------------------------
Originariamente inviato da pg08x
Certamente, già in passato avevamo visto come per avere prestazioni paragonabili a quelle di ATI ad nvidia non basta cambiare l'ordine di esecuzione degli shaders ma deve bensì usare le proprie estensioni proprietarie ha già sostituito l'acqua in mother nature del 3dmark 2003 con codice proprietario che comporta perdite qualitative".
E' per dar modo agli sviluppatori di utilizzare queste estensioni che è nato il CG, adesso con l'unified compiler vengono forzate.
--------------------------------------------------------------------------------
Come fai ad esserne così sicuro? Per caso, hai fatto un debug dell'ultimo driver e ti sei reso conto che ci sono porzioni di codice che fanno esattamente quello che dici tu, o che riconoscono un bench e/o "capiscono" che una determinata scena di un gioco è particolarmente pesante ed eliminano determinati effetti per aumentare le prestazioni? Oppure hai analizzato accuratamente i dettagli di immagini ottenute con e senza il compiler attivato e hai notato un evidente riduzione della qualità grafica? Se è cosi, beh, non ho nulla da ridire sulle tue affermazioni, anzi, mi unisco al coro......
ALLORA, SE SEI UNA PERSONA COERENTE, INIZIA AD UNIRTI AL CORO...
http://www.beyond3d.com/articles/3dmark03/340/index.php?p=6
Alcuni estratti...
...It is possible to detect the shader for the trees and then a pre-computed one that replaces it...
...it would certainly seem that these rendering differences are as a result of shader replacements - the shader compiler optimiser that is featured in the 52.16 driver should not alter the image in in fashion.
http://www.beyond3d.com/articles/3dmark03/340/index.php
In pratica a detta di nvidia il compiler si limita a riordinare gli shaders in realtà li sostituisce con estensioni proprietarie e per banfare meglio (vale a dire cercare di ottenere una qualità più alta) nel 3dmark hanno fatto ricorso pure a effetti pre renderizzati
Non è solo l'inizio della fine del 3dMark e di tutti i bench sintentici per schede video come ipotizza Corsini.
GRAZIE a certa gente rischiamo di non avere mai più metri di paragone :mad:
Mazzulatore
16-11-2003, 15:27
Originariamente inviato da pg08x
ALLORA, SE SEI UNA PERSONA COERENTE, INIZIA AD UNIRTI AL CORO...
http://www.beyond3d.com/articles/3dmark03/340/index.php?p=6
Alcuni estratti...
...It is possible to detect the shader for the trees and then a pre-computed one that replaces it...
...it would certainly seem that these rendering differences are as a result of shader replacements - the shader compiler optimiser that is featured in the 52.16 driver should not alter the image in in fashion.
http://www.beyond3d.com/articles/3dmark03/340/index.php
In pratica a detta di nvidia il compiler si limita a riordinare gli shaders in realtà li sostituisce con estensioni proprietarie e per banfare meglio (vale a dire cercare di ottenere una qualità più alta) nel 3dmark hanno fatto ricorso pure a effetti pre renderizzati
Quindi non c'è decadenza nella qualità come avevi detto!
Originariamente inviato da Mazzulatore
Quindi non c'è decadenza nella qualità come avevi detto!
Scusa cosa hai capito ? :D
La decadenza c'è eccome ed è documentata:
a) Non si sono limitati a riordinare gli shaders del directx9 ma li hanno sostituiti con altri effetti propri dell'architettura nv3x e qui entra in gioco il compiler
b) Per mascherare meglio la perdita di qualità e di precisione che ne deriva in alcuni punti hanno fatto ricorso addirittura a dettagli precalcolati e prerenderizzati.
Se faccio il rendering a priori in laboratorio e poi tramite i drivers te lo spaccio come eseguito in tempo reale posso farti girare il 3dmark2003 a palla anche su una riva tnt :sofico:
In pratica è una presa per il c..o pazzesca :mad:
Disprezzo chi si riduce a mentire così... e mi sono stufato di parlarne... non merita.
Mazzulatore
16-11-2003, 15:41
L'update dice che a parte le differenze run-dependent, non dovrebbero esserci deterioramenti significativi.
E questo spiega meglio:
"Curiously, GT4 displays the largest performance difference, and yet displays the fewest obvious IQ differences. The image difference tool used here shows that there are slight variations in how the pixel shader water surface is rendered, but overall these are slight."
Insomma se è vero ciò che dicono il trucco sta nel prerendering degli effetti, ma con i giochi i drivers nuovi si comportano meglio?
Originariamente inviato da Mazzulatore
E questo spiega meglio:
"Curiously, GT4 displays the largest performance difference, and yet displays the fewest obvious IQ differences. The image difference tool used here shows that there are slight variations in how the pixel shader water surface is rendered, but overall these are slight."
Insomma se è vero ciò che dicono il trucco sta nel prerendering degli effetti, ma con i giochi i drivers nuovi si comportano meglio?
Nonostante il test4 sia quello dove le performance sono incrementate maggiormente denota minori differenze qualitative a causa, e lo spiega dopo nel test, degli effetti prerenderizzati.
...It is possible to detect the shader for the trees and then a pre-computed one that replaces it...
Nei giochi quando e se si attiva il compiler le performance migliorano ma a scapito della qualità. A meno che si tratti di un timedemo è impossibile prevedere quale sarà la "scelta" attuata dal giocatore e quindi non vedo come possano in questo caso ricorrere al prerendering per mascherare gli artefatti grafici.
Scusa lo slang ma in pratica con il compiler banfano a scapito della qualità, grazie al prerendering, non applicabile in situazioni di gioco, (a meno che giochiate al vecchio DRAGONS LAIR), banfano per coprire la banfa sulla qualità.
I miei Complimenti :sofico:
cdimauro
16-11-2003, 17:10
Originariamente inviato da DjLode
E' una ipotesi. Solo che così facendo la banfa sarebbe facilmente scopribile eseguendo il benchmark prima senza prendere nessuno shot, e in secondo luogo prendendo vari shot così da far eseguire alla scheda il rendering al massimo livello qualitativo. In questo caso i risultati dovrebbero discostarsi. E se tu richiedessi uno shot di un frame che la scheda si è già calcolata? Dovrebbe ricalcolarlo :)
Insomma ipotesi (IMHO) interessante ma alquanto infattibile.
Considera che normalmente il salvataggio di uno screenshot è un'operazione che fa perdere un po' di tempo: in questo caso ne farebbe perdere di più, ma è difficile stabilire se tale perdita è dovuta all'operazione in sé, oppure è gravata dal maggior tempo di rendering...
cdimauro
16-11-2003, 17:13
Originariamente inviato da pg08x
ALLORA, SE SEI UNA PERSONA COERENTE, INIZIA AD UNIRTI AL CORO...
http://www.beyond3d.com/articles/3dmark03/340/index.php?p=6
Alcuni estratti...
...It is possible to detect the shader for the trees and then a pre-computed one that replaces it...
Possible = possibile. E' una possibilità insomma. Esistono delle certezze? Delle prove?
...it would certainly seem that these rendering differences are as a result of shader replacements - the shader compiler optimiser that is featured in the 52.16 driver should not alter the image in in fashion.
http://www.beyond3d.com/articles/3dmark03/340/index.php
Descrive quello che farebbe lo unified compiler. Non ci vedo nulla di male in ciò.
In pratica a detta di nvidia il compiler si limita a riordinare gli shaders in realtà li sostituisce con estensioni proprietarie e per banfare meglio (vale a dire cercare di ottenere una qualità più alta) nel 3dmark hanno fatto ricorso pure a effetti pre renderizzati
L'NV30 è dotato di estensioni proprietarie, e non vedo nulla di male nel loro utilizzo. Ribadisco per l'ennesima volta la questione: l'importante è che la funzione finale sia MATEMATICAMENTE equivalente a quella originale. Se poi NV30 ha la funzione che ti calcola seno e coseno in un colpo solo e la usa, mentre l'R300 deve utilizzare due istruzioni, io non vedo nulla di male in ciò. Giusto per chiarire la questione.
Originariamente inviato da cdimauro
Possible = possibile. E' una possibilità insomma. Esistono delle certezze? Delle prove?
:mc:
INGLESE
...It is possible to detect the shader for the trees and then a pre-computed one that replaces it...
TRADUZIONE
...E' possibile distinguere lo shader per gli alberi ed allo stesso tempo uno precalcolato che lo rimpiazza...
Ma di quali prove hai ancora bisogno. Di una dichiarazione ufficiale di nvidia dove ammettono di barare ?
Se ti metto davanti agli occhi due ragazze e ti dico E' POSSIBILE VEDERE CHE UNA E' ALTA 1 metro ed 80 MENTRE L'ALTRA solo 1 e 40.
Ma certo si tratta di una possibilità :sofico: ok, potresti anche non vederle....
Come fanno ad essere come ti piace tanto dire 'funzioni matematicamente equivalenti' se danno risultati diversi ?
L'NV30 è dotato di estensioni proprietarie, e non vedo nulla di male nel loro utilizzo. Ribadisco per l'ennesima volta la questione: l'importante è che la funzione finale sia MATEMATICAMENTE equivalente a quella originale. Se poi NV30 ha la funzione che ti calcola seno e coseno in un colpo solo e la usa, mentre l'R300 deve utilizzare due istruzioni, io non vedo nulla di male in ciò. Giusto per chiarire la questione.
http://www.beyond3d.com/articles/3dmark03/340/images/gt2_diff_pic20001043s.jpg
Questo è uno dei tanti shaders 'tagliati' un'immagine composta da tutti i punti mancanti applicando la nuova bellissima 'ottimizzazione':D di nvidia.
Mi stai dicendo che è equivalente a niente ???? :sofico:
cerchiamo di far tornare la discussione entro binari NON polemici...
Mazzulatore
16-11-2003, 18:16
Originariamente inviato da pg08x
http://www.beyond3d.com/articles/3dmark03/340/images/gt2_diff_pic20001043s.jpg
Questo è uno dei tanti shaders 'tagliati' un'immagine composta da tutti i punti mancanti applicando la nuova bellissima 'ottimizzazione':D di nvidia.
Mi stai dicendo che è equivalente a niente ???? :sofico:
Ma ci sei o lo fai lo dico io adesso....
guarda che:
1 se vedi le due immagini corrispondenti è una coltre di fumo che dipende da funzioni errore generate casualmente, quindi diverse ad ogni esecuzione del benchmark, e sono A VISTA diverse, a prescindere da come sono "shaderate". Cerchiamo di discutere in base a quello che sappiamo con un minimo di criterio.
2. in fondo all'articolo è scritto quello che ho detto.
Non è stato tagliato nessuno shader, la qualità non è mutata e questo non credo sia ancora da discutere. Che il trucco c'è sulle prestazioni è un altro paio di maniche ed è da chiarire se è lecito o illecito (cioè se FUTUREM. non ha disabilitato il precompiler).
[B]...una coltre di fumo che dipende da funzioni errore generate casualmente, quindi diverse ad ogni esecuzione del benchmark...
Ma cosa stai inventando scusa ??? coltre di fumo l'ombra del soldato ??? generate casualmente e sempre diverse ???
http://www.beyond3d.com/articles/3dmark03/340/images/gt2_diff_pic20001043.png
... per favore BASTA! :mad:
... portate avanti i vostri battibecchi via PVT o ICQ, se volete e se ritenete che ne valga la pena! :rolleyes:
Adesso andrò di sospensione...
Originariamente inviato da Mazzulatore
Non è stato tagliato nessuno shader, la qualità non è mutata e questo non credo sia ancora da discutere. Che il trucco c'è sulle prestazioni è un altro paio di maniche ed è da chiarire se è lecito o illecito (cioè se FUTUREM. non ha disabilitato il precompiler).
Guarda questo link, a me sembrano gli shaders sui capelli della tipa nel test troll's lair
http://www.beyond3d.com/articles/3dmark03/340/images/gt3_diff_pic00324.png
Mazzullatore scusa tanto ma se non vuoi renderti ridicolo non dire cose come "funzioni errore generate casualmente, quindi diverse ad ogni esecuzione del benchmark" non esistono... non ti offendere...
Mazzulatore
16-11-2003, 18:36
beh... sì, le strisce rosse perchè in una delle due il fumo è più denso e filtra di più la luce azzurra dello sfondo dietro. poi è difficile distinguere le differenze reali, di sicuro una semplice differenza bit a bit è anche fuorviante.
Mazzulatore
16-11-2003, 18:38
Tratto dalla recensione:
"Update 13/11/2003
Futuremark have told us that some the the smoke from the door in GT2 and the hair and fire shaders in GT3 may not exactly the same from one run to the other. These should be discounted as image differences."
Mazzulatore
16-11-2003, 18:43
Scusa Raven era l'ultima... mica stiamo bisticciando però!
PS.
SONO PIU' SPETTINATI SULLA PRIMA IMMAGINE... SI VEDE AD OCCHIO NUDO! :rotfl: (sembra andata in moto)
Questo per non memorizzare anche i singoli capelli, che può essere dispendioso (ed anche noioso, sempre la stessa pettinatura), vengono generati casualmente. Fare i giochi è un'arte oscura!
some = alcuni (fra quelli evidenziati) non all = tutti
may = potrebbero
Gli interessi in gioco sono pesanti e non conviene mai infierire ma bensì lasciarsi qualche porta aperta per tentare in futuro una riconcialiazione.
Gli effetti NON vengono generati casualmente... le condizioni di test DEVONO assolutamente rimanere costanti.
E' noto come sotto stress su schede portate al limite possano esserci alcune lievi differenze, errori, ma questo non invalida quanto esposto nell'articolo.
A conferma ulteriore nel test 4 parlano di prerendering per coprire gli artefatti... certo devono essere diplomatici... se leggi le conclusioni vedrai come nvidia ha subito chiesto una conference con quelli di beyond3d ed inimicarsi nvidia al giorno d'oggi non conviene :mad:
cdimauro
17-11-2003, 06:03
x Raven: posso rispondere in maniera assolutamente non polemica a pg08x, semplicemente per chiarire il significato di quelle frasi? Il tutto restando nel contesto della news, ovviamente.
Originariamente inviato da cdimauro
x Raven: posso rispondere in maniera assolutamente non polemica a pg08x, semplicemente per chiarire il significato di quelle frasi? Il tutto restando nel contesto della news, ovviamente.
Innanzitutto scusami, in un post ti ho risposto io in modo polemico... semplicemente penso che i rendering con i nuovi drivers in alcuni casi possono essere diversi per cui un vero confronto fra le schede diventa sempre più difficile indipendentemente dai programmi usati per i test. Rispetto comunque le tue opinioni e mi auguro che in futuro vi sia maggiore chiarezza :)
Mazzulatore
17-11-2003, 19:02
Originariamente inviato da pg08x
Mazzullatore scusa tanto ma se non vuoi renderti ridicolo non dire cose come "funzioni errore generate casualmente, quindi diverse ad ogni esecuzione del benchmark" non esistono... non ti offendere...
Esistono tecniche per generare da zero foglie, alberi, montagne, interi paesaggi, fiamme, nuvole, lampi... certamente capelli, sempre diversi ovviamente. Ed ovviamente te lo dico perchè mi voglio rendere ridicolo.
cdimauro
18-11-2003, 04:34
Originariamente inviato da pg08x
Innanzitutto scusami, in un post ti ho risposto io in modo polemico... semplicemente penso che i rendering con i nuovi drivers in alcuni casi possono essere diversi per cui un vero confronto fra le schede diventa sempre più difficile indipendentemente dai programmi usati per i test. Rispetto comunque le tue opinioni e mi auguro che in futuro vi sia maggiore chiarezza :)
Non avevo alcuna intenzione di fare polemica, e difatti volevo soltanto chiarire la questione, che è alquanto "fumosa". Da quello che riportavi si leggeva soltanto quello che sarebbe stato possibile fare, ma non trasparivano prove certe. Tutto qua. :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.