|
|
|
![]() |
|
Strumenti |
![]() |
#21 |
Bannato
Iscritto dal: Aug 2002
Messaggi: 382
|
non cisono dei test fatti con i catalist 3.9 e gli ultimi detonator con quake3,UT2003,ecc....
cosi possiamo vedere subito se Nvidia ha torto o no. se in un gioko il punteggio risulta superiore x ati mentre con il banch nvidia tiene testa allora è vero ke i driver barano. ma se fosse il contrario allora è futuremark ke imbroglia. |
![]() |
![]() |
![]() |
#22 |
Senior Member
Iscritto dal: Oct 2003
Messaggi: 1372
|
concordo con LASA,
alla fine dei conti chi si compra una scheda grafica per far girare solo bench? I nvito HWUpgrade ad usare come bench Gun Metal, un gioco deludente, ma dalla qualità visiva impressionante con una grafica e un numero di poligoni ed effetti da mettere in ginocchio le macchine più potenti, allora sì che vedremmo realmente la resa dell'HW sotto esame. |
![]() |
![]() |
![]() |
#23 |
Senior Member
Iscritto dal: Feb 2002
Città: Padova
Messaggi: 24606
|
Gun Metal può essere considerato di parte nVidia
nn è mai finita ci vorrebbe un gioko/benk sviluppato da terze parti totalmente disinteressate alla cosa ossia impossibile BYEZZZZZZZZZZZZZ |
![]() |
![]() |
![]() |
#24 |
Senior Member
Iscritto dal: Jun 2001
Città: Roma
Messaggi: 1800
|
secondo me NVIDIA fa più bella figura a stare zitta!!
Ciao Ciao |
![]() |
![]() |
![]() |
#25 | |
Bannato
Iscritto dal: Oct 2002
Messaggi: 29264
|
Quote:
Se noti i risultati di questo benchmark stanno solo su una pagina su 7-8 anche + di test. |
|
![]() |
![]() |
![]() |
#26 |
Member
Iscritto dal: Dec 2002
Messaggi: 289
|
Non ci sono bench dei 3.9 ma ci sono bench con i 52.16, su hardocp c'è una bella recensione in cui vengono messi in evidenza alcuni "difetti" nei drv nVidia, in special modo con Halo da questa release hanno cominciato a far sparire alcune luci, come in Aquamark3... guarda caso le GF hanno colmato il gap prestazionale con le ATI
![]() Gunmetal(Bench) non mi pare molto attendibile, è l'unico gioco DX9 esistente sulla terra ad andar meglio con le NV invece che con ATI, è più l'eccezione che la regola. Su Beyond3d c'è un confronto di immagini prese con una 5950 con e senza patch 340, ovviamente diverse tra di loro. Date un'occhiata, ciao |
![]() |
![]() |
![]() |
#27 |
Senior Member
Iscritto dal: Oct 2003
Messaggi: 1372
|
Allora che dobbiamo fare, portare doni votivi agli dei per far sì che Matrox riprenda la corsa del 3D, ST torni al mercato delle schede grafiche e XGI immetta un prodotto convincente per far sì che la concorrenza si riaccenda, la corsa alla qualità torni protagonista e i prezzi scendano a tutto vantaggio dei consumatori.
Ditemi allora quale divinità pregare! Niente magia nera, prego. |
![]() |
![]() |
![]() |
#28 |
Senior Member
Iscritto dal: Jul 2000
Messaggi: 1187
|
test
|
![]() |
![]() |
![]() |
#29 |
Senior Member
Iscritto dal: Sep 1999
Città: Verona
Messaggi: 959
|
lol, mi sembra quasi la legge del contrappasso... 3dfx si è trovata in difficoltà perchè in ritardo su tecnologie che peraltro non sarebbero servite molto su quella generazione di schede, nvidia ora sta soffrendo perchè in ritardo con le features del futuro immediato.
certo faticherei a spendere i soldi per una scheda già vecchia... |
![]() |
![]() |
![]() |
#30 |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
basterebbe utilizzare, per test più seri, lo shadermark, che è l'unico test che può definirsi DX9 e non è facilmente truccabile (data la presenza di diversi anti detect e la possibilità di muovere a piacimento gli oggetti (si evitano così cheat analoghe ai clipping planes che abbiamo visto nel 3DMark).
Capisco che non sia basato sul motore grafico di un gioco, pero non è ottimizzato per nessuno, non è basato su nessuna architettura ma solo sulle specifiche DX ed è l'unico bench in cui i PS2.0 sono compilati integralmente in HLSL (oltre ad essercene un buon numero e non i 3 o 4 dei presunti bench DX9 più noti). |
![]() |
![]() |
![]() |
#31 |
Senior Member
Iscritto dal: Jul 2000
Messaggi: 1187
|
Dedicato a chi vuole sapere le cose per come realmente stanno...
Dopo aver visto quanto stava facendo nvidia ATI aveva fatto il suo tentativo riordinando gli shaders nel 3dmark 2003 ed ottenendo così un guadagno prestazionale nell'ordine del 2 o 3% una ottimizzazione che andava però a 'riscrivere' porzioni del codice del 3dmark quindi anche se limitato si tratterebbe pur sempre di un imbroglio. In seguito agli avvisi di futurmark nessun codice specifico è stato più utilizzato da ATI.
Ma per tornare al problema attuale bisogna considerare che, purtroppo, le schede nvidia sono del 50% meno performanti rispetto alle r3xx nell'esecuzione dei pixel shaders 2 caratteristica fondamentamentale del directx9. Nvidia inizialmente con il CG (adesso non più supportato per via degli alti costi dovuti alla necessità di continuo aggiornamento) voleva indurre gli sviluppatori ad abbandonare gli shaders standard in favore di un pallido surrogato supportato nativamente dalle gpu nvidia, surrogato che sia pure con qualità inferiore ottiene performance paragonabili a quelle di ATI e quindi avrebbe permesso alla casa californiana di salvare la faccia. I programmatori nvidia sono arrivati al punto di tralasciare gli effetti di shaders dell'acqua nel 3dmark 2003 'nature' ed altre cose simili, a screditare gli sviluppatori di Futuremark ed abbandonare il supporto a questa software house tutto perchè in Futuremark si ostinavano e continuano ad ostinarsi a cercare di ottenere un bench il più obiettivo e soprattutto 'standard' possibile. Il nuovo 'Unified Compiler' di nvidia presente nei nuovi drivers ha parzialmente risolto il problema dei propri creatori decretando così la morte del CG... in pratica il codice potenzialmente lento su schede nvidia viene di fatto tradotto e ricompilato una tantum dai drivers in nuovo codice più performante ed ottimizzato per l'hardware (non userebbe più gli shaders previsti dallo standard)... (chi conosce il .net framework pensi al concetto di gestione del codice all'interno del common language runtime) a prima vista può sembrare la soluzione ideale ma non è così, per pure esigenze commerciali e di performance non viene di fatto utilizzato il directx 9 nelle sue piene potenzialità e la perdita qualitativa in alcuni casi risulta evidentemente percepibile. Uniamo a questo l'esigenza di stare al passo che ha spinto nuovamente nvidia a ricorrere a schede overcloccate di fabbrica, schede schede quali le 5900 ultra che non funzionerebbero senza grossi dissipatori. Il tutto è fondato su un ragionamento semplice: il primato nel settore high-end assicura le vendite nel middle-end. Da un lato abbiamo Nvidia che pur di non ammettere la sconfitta inganna e prende in giro i suoi stessi acquirenti sperando così di salvare la faccia... dall'altro lato futurmark con dei programmatori, tempo fa denigrati pubblicamente da nvidia che vogliono salvare il proprio orgoglio e battersi per un eseguire il proprio test senza tagli nella qualità del rendering... omegeneamente per tutte le marche di schede. A Corsini... la verità può pesare e lasciare con l'amaro in bocca l'atto di ammeterla così, pubblicamente, non vuol dire alimentare dei flame ![]() ![]() Ultima modifica di pg08x : 13-11-2003 alle 21:04. |
![]() |
![]() |
![]() |
#32 |
Bannato
Iscritto dal: Jul 2002
Messaggi: 464
|
Io la vedo diversamente...
Tecnologicamente parlando attualmente la ATI ha una scheda (progetto) piu performante... (come potenza pura) La nvidia un po meno... sia perche ha voluto fare il passo piu lungo della gamba, strozzando memorie e gpu (pipeline ed unita multitexture, e compagnia bella) ed e' stata presa in contro piede dalla Ati che poco dopo ha sfornato cio che nvidia avreddo dovuto sfornare gia dopo le famose GF2 Ti & Gf3... Ed ecco il sorpasso delle serie 9500 & 9700.. proprio una generazione avanti ad nvidia, sottolineando pero che precedentemente Ati era 2 generazioni indietro... Complimenti ad ATI che non ha risparmiato, strada intrappresa invece da NVIDIA. Successivamente e quotidianamente sta rattoppando qua e la per raccimolare in prestazioni (5700Ultra & 5950U), ma e' ammalappena sufficiente (MA NON CI POTEVA PENSARE PRIMA?) Nvidia prima tecnologicamente era una spanna davanti alla concorrenza... Prima svendeva i suoi mostriciattoli (mica tanto, ma almeno avevi la scheda migliore per i giochi e la grafica), oggi invece ha iniziato a fare piu politica di businness (recupero di investimenti fatti in passato) invece che di beneficenza, che pero aveva decretato il suo successo in passato... e NVIDIA "era" sinonimo di potenza bruta. Tornando al discorso attuale... Futuremark essendo una societa' che ha decretato la sua fortuna, proprio a ruota con Ati & NVIDIA... purtroppo si trova nella situazione di creare un qualcosa di imparziale... Per fare cio' purtroppo e' costretta a eliminare le varie ottimizzazioni software se cosi possiamo definirle... Ati e' sempre stata scarsa in quanto a driver, mentre Nvidia ha una schiera di ingegneri e cervelloni che spremono sangue dai sassi... insomma i re delle ottimizzazioni... Futuremark quindi, non puo essere imparziale nel verificare le ottimizzazioni reali di una scheda, se purtroppo un buon 20% di tali prestazioni rilevate a cronometro dipendono dai driver... Parliamoci chiaro, anche con le ottimizzazioni nvidia non fa bella figura... perche purtroppo come dicevo precedentemente, il progetto ATI e' molto piu potente (potenza bruta)... Per cui e' anche giusto che nel 3dmark le Ati facciano di piu... Purtroppo eliminando le ottimizzazioni totalmente, non e' colpa di futuremark se la nvidia perde molto di piu del dovuto (che e' gia appena sufficiente con le ottimizzazioni)... Doveva pensarci prima... perche per potenza bruta la Ati e' messa meglio. Un po come AMD rispetto al P4... insomma bisogna farsene una ragione... e sono le applicazioni che fanno la differenza. Poi c'e' l'aspetto Pratico... i giochi... A parte qualche eccezione... Nvidia e' avanti... e grazie anche alle sue ottimizzazioni software che con quel poco che ha a disposizione, riesce a sopperire a cio che ATI invece con hardware migliore, non e' in grado di fare... almeno attualmente... Ma andando avanti le ottimizzazioni serviranno a poco... e senza una base hardware potente ci sara poco da fare... (emu8087, i drivespace e ram doubler, hanno sempre lasciato lasciato il posto a chi di dovere... per l'appunto all'hardware... chi e' del mestiere sa a cosa mi riferisco) Perche una volta ottimizzato cio che c'e' da ottimizzare e che e' gia stato ottimizzato anni prima... Basta... e' arrivata al limite... Non potra competere con cio che Ati raggiungera' tra 1 anno e che riuscira a sfuttare cio che la scheda puo sprigionare, quel poco di potenza assopita che pero risiede materialmente nella scheda, per cui nella battaglia dx9... e' Ati che alla lunga vincera'... battaglia che Nvidia ha perso in partenza... e 3Dmark2003 ne e' la prova ed osservatore imparziale e senza tranelli. E' questa la forza di NVIDIA... le applicazioni reali e che ancora calzano gli calzano a pennello... Ed al miglior supporto delle case costruttici... Immagino che i giochi li creino su piattaforma NVIDIA, perche per anni e' stata la regina incontrastata.... come oggi le applicaizoni in generale vengono create su piattaforma P4... e cio porta a lievi ottimizzaioni. La cosa piu bella in assoluto sarebbe che la Nvidia creasse driver per la ATI... a quel punto potete immaginare cosa accadrebbe... = ![]() Ma ovviamente e' fantascienza... Cmq a voi le conclusioni... Poi ripeto, che i giochi di oggi vadano 10 frame in piu con nvidia... e' un'altro discorso... e ne siamo tutti felici... Ma Futuremark crea un test che in quelle condizioni (medesime per x entrambi le schede.... esse devono tirare fuori cio che possiedono ora e senza ottimizzazioni che possono aiutare in futuro... ma non FARNE la differenza in base al "solo" software... Mentre attualmente e' solo questo il criterio, che fa di nvidia cio che e'... Il test testa la potenza hardware della scheda, non il lavoro maniacale degli ingegneri che lavorano al driver. Ovviamente e' tutto un connubio... La potenza e' nulla senza controllo... ![]() Putroppo nvidia ha adottato questa politica del tanto con poco... perche se volesse... sarebbe in grado di stracciare anche la ATI... ma in realta' non vuole, e cerca solo di gonfiare le sue finanze... ormai ha capito come funzionano i giochi (finanziari) ![]() Altra similitudine con Intel Vs AMD... vero? Invece dovremmo dare le medaglie al valore a questi ingegneri dei driver... questi tizi quasi anonimi e che: Il possibile e' stato fatto, l'impossibile lo stanno facendo, e per i miracoli si stanno attrezzando ![]() |
![]() |
![]() |
![]() |
#33 |
Senior Member
Iscritto dal: Sep 2002
Messaggi: 2555
|
3 cose:
1 - dov'è la faccina con le fette di prosiutto sugli occhi? 2 - è mai possibile che si parli male sempre e solo di nVidia. E gira di qua e gira di là nVidia ha solo dei problemi. Mi sono rotto le scatole. Perchè vi ostinate ancora e ancora a dar credito ad un'azienda così? Non vi siete rotti l'anima di essere costantemente messi in discusisone da tutto il mondo informatico? Io se avessi una scheda nVidia (e l'ho avuta) andrei in giro a testa alta...parlano tutti di me! Peccato che ne parlino male! 3 - Credo che il vero punto l'abbia centrato Magilvia chiedendo di riflettere se ha ragione nVidia o Futuremark...dove la prima ovviamente si deve discolpare e quindi spara sempre piu forte e tira l'acqua al suo mulino. La seconda dovendosi rapportare con tutti i costruttori di schede video fa le cose fatte a modo per essere piu imparziale possibile. A voi l'ardua decisione...io la mia scelta l'ho gia fatta da tempo e finora si sta solo ricoprendo d'oro e non di merda. |
![]() |
![]() |
![]() |
#34 | |
Senior Member
Iscritto dal: Jul 2000
Messaggi: 1187
|
Quote:
Non esiste una soluzione definitiva quando ti vuoi scaldare e la coperta è troppo corta. Apprezzerei di più se certa gente al posto di investire in alleanze con le software house ed in complicate cheat software dedicasse le proprie risorse all'obiettivo di ottenere un hardware migliore. L'unified compiler non può sempre riuscire a riordinare gli shaders per tutte le combinazioni possibili, nulla è stato disabilitato da FutureMark ed al posto di lodare i workaround dei programmatori nvidia io, fossi in te, loderei piuttosto l'impegno, l'integrità e l'onestà dimostrata dai loro concorrenti che, per quanto nvidia bari si sono posti dei limiti che non vengono superati, in pratica certe cose non le fanno NON perchè non sono in grado ma bensì perchè le reputano un imbroglio nei confronti della loro clientela. Ultima modifica di pg08x : 13-11-2003 alle 21:35. |
|
![]() |
![]() |
![]() |
#35 | |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 10395
|
Quote:
Come lo è Sysmark per le performances dei processori? Quando un'azienda fonda il suo guadagno sui benchmark, puoi star sicuro che smetterà di essere imparziale. Adesso io sono stato e sono utente sia nVIDIA che ATI, e sinceramente non mi piace sempre lo sparare a zero e spesso a vanvera contro l'una o contro l'altra. E sempre coi soliti luoghi comuni (nVIDIA bara, ATI fa i driver che mandano in crash il sistema, ecc.). Secondo me il progetto ATI attuale è migliore da molti punti di vista di quello nVIDIA in commercio, non ultimo perchè non soffre come nVIDIA se mancano adeguate ottimizzazioni. Ma dire che per questo nVIDIA fa schifo mi sembra eccessivo. C'era stato un sito tedesco che aveva fatto un'analisi molto accurata delle due architetture, per stabilire che nVIDIA produceva la massima potenza elaborativa se le istruzioni venivano ordinate in una certa maniera. Punto. Questa è la differenza. Se il compilatore di nVIDIA o le "ottimizzazioni" presenti nei driver sono volte solo al raggiungimento di questo scopo, ben vengano, e nessuno dovrebbe rimuoverle (come si comporterebbero i Pentium 4 se togliessimo le ottimizzazioni per il loro codice?). Se invece fanno diminuire la qualità di immagine, il discorso cambia (ma poi stabilire se un certo artefatto grafico sia un tentativo di ottimizzazione oppure un bug, lo sapreste determinare voi?) e nVIDIA ha sicuramente sbagliato quando ha introdotto certe cavolate nei suoi drivers. Ma non è detto che sia sempre così. la cosa che mi fa pensare parecchio è che la diminuizione delle prestazioni non si è verificata nei test del pixel shader (che a detta di Futuremark è stato la sola cosa ad essere toccata) ma nel vertex shader, che a detta di Futuremark non è stato sfiorato. E' questo che mi porta alla conclusione che o c'è un bug che provoca conflitti tra i due programmi, oppure Futuremark ha toccato ben più di quello che dice. Per ribadire l'importanza di una buona programmazione, prendiamo il caso dei giochi OpenGL (siccome esistono anche loro, e non solo quelli basati su DirectX, base del 3Dmark). In questi da sempre è stata nVIDIA a farla da padrone, e solo recentemente ATI ha ridotto le distanze come prestazioni e qualità di immagine in questo ambiente. Dovremmo quindi (ragionando alla rovescia) pensare che allora la soluzione ATI fa pena perchè è meno performante/ha qualità di immagine leggermente inferiore in questo ambiente? Oppure bisogna semplicemente pensare che i driver OpenGL di nVIDIA sfruttano meglio l'hardware di quanto facciano quelli ATI? Io penso che con i driver 52.16 nVIDIA abbia fatto un grosso passo avanti rispetto a qualche mese fa, riducendo lo svantaggio rispetto ad ATI nell'ambito directX, e che l'hardware non sia poi così "scarso", ma piuttosto limitato dalla propria sensibilità al software che ci gira sopra. Poi pare che nelle direct X 9.1 qualche cosa cambierà, a quanto si dice. Una cosa sola, per finire (ce l'ho solo coi più "facinorosi"). Se avete in antipatia una certa marca, semplicemente non compratela. Che cosa ci si guadagni a scrivere fiumi di parole intrise d'odio sinceramente non l'ho ancora capito. |
|
![]() |
![]() |
![]() |
#36 |
Bannato
Iscritto dal: Jul 2002
Messaggi: 464
|
x pg08x
![]() ah... non avevo letto il tuo commento... precedente al mio post quindi quel : io la penso diversamente era fuori luogo ed in base al commento degli altri... ![]() con il tuo discorso invece sono daccordissimo ![]() ![]() volevo solo puntualizzare... ![]() si anche questo e' vero.... non ho dato degli incapaci ai tecnici ati... era solo per ampliificare cio che invece fa la controparte... poi chiamamolo barare o bravura o altro... il problema e' che con la Ati... non c'e quasi bisogno di "barare" (in senso lato) proprio perche piu potente della concorrenza (purtroppo) Il mio discorso era incentrato su questo... ![]() Ultima modifica di J0J0 : 13-11-2003 alle 22:56. |
![]() |
![]() |
![]() |
#37 | ||
Senior Member
Iscritto dal: Nov 2003
Messaggi: 1825
|
Quote:
Quote:
|
||
![]() |
![]() |
![]() |
#38 |
Bannato
Iscritto dal: Oct 2001
Messaggi: 1872
|
Complimenti leoneazzurro sei l'unico che ha espresso un parere serio!
Concordo su tutto. |
![]() |
![]() |
![]() |
#39 | |
Senior Member
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 1359
|
Quote:
2- Gli interessi dietro al 3dmark sono enormi e' giusto che non ci siano trucchi almeno li'!
__________________
Lightsaber: XP ProSP3 |C2D 6600 |Abit AW9D |2GB Corsair |Geffo 8800GTX |Seagate Barracuda |SB Live!
|
|
![]() |
![]() |
![]() |
#40 |
Member
Iscritto dal: Dec 2002
Messaggi: 289
|
Scusa Jojo, quali sono i giochi in cui nVidia sta davanti? Che io sappia sono X2(non uscito), Gunmetal (di bellezza discutibile) e il motore di Quake3... Sinceramente non me ne vengono in mente altri, e considera quelli in cui ha recuperato il gap con cheat, come AquamNox (Mark) e Halo; ma in Warcraft, Fly Simulator, UT2003, Tomb Raider X
![]() Addirittura in C&C che è nVidia way to play in qualche test è davanti, inteso fino a tot risoluzione e con o senza filtri. Peccato che Tomb non sia piaciuto molto xchè è il gioco che usa maggiormente le DX9 x ora, come tipo di effetti; certo, Max Payne è più bello, ma è più legato a canoni di "realismo"... |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 08:34.