View Full Version : De Benchmark et similia
Mi sono fatto prendere la mano dal titolo aulico :)
A parte gli scherzi, Raffaele ha scritto due post nel topic chiuso interessantissimi ai quali vorrei rispondere.
Beh fek adesso non esageriamo. Il 3DMark non è uno strumento di valutazione assoluto. E fin qui siamo d'accordo, ma dire che non esiste un modo per valutare oggettivamente quale scheda sia la migliore non è corretto.
Forse non sono riuscito a spiegarmi in quel mio post. Mi e' stato domandato se esiste un metodo assoluto ed oggettivo per valutare le prestazioni di una GPU
Si' esiste. Si dovrebbe fare un test su tutte le combinazioni possibili di pixel e vertex shader con tutte le combinazioni possibili di render state con tutte le combinazioni possibili di input e poi fare una media pesata dei risultati ed esprimere un valore, che comunque introdurrebbe delle scelte non oggettive. Se esistesse un simile benchmark, consiglierei a chi lo lancia di prepararsi un caffe', perche' il risultato non arrivera' probabilmente prima della fine dell'universo. A parte gli scherzi, il calcolo combinatorio ci vieta uno strumento di valutazione assoluto e oggettivo per valutare quale scheda sia migliore.
Questo non e' un parere, e' un teorema matematico.
Da qui vengono le mie risposte "dipende", perche' le prestazioni dipendono dalla situazione e dalle condizioni e da quello che si sta cercando di fare. Anche i benchmark sintetici che hai citato dopo, dai quali hai detto che la situazione era chiara dopo qualche settimana, non sono assolutamente attendibili. Quei benchmark sui pixel shader ti dicono quale delle due architetture va piu' veloce su quel particolare pixel shader, ma non puoi dare alcun giudizio in generale.
Tu mi hai detto che la situazione era chiara dopo alcune settimane, ma se ti ricordi quei dati erano viziati dal fatto che i pixel shader usati in quei benchmark erano scritti (per caso, non in maniera voluta, abbiamo tutti scritto gli shader cosi' all'inizio) per favorire una delle due architetture. Quei valori erano viziati, quella conclusione fatta nelle prime settimane era viziata e solo per caso si rivelo' giusta, ma questo non toglie il vizio di forma, tutt'altro che trascurabile. I benchmark di HL2 erano sballati. Infatti ti ricorderai che quando nvidia introdusse l'Universal Compiler che riordina le istruzioni degli shader in maniera piu' digeribile per l'architettura NV3X la situazione si riequilibro' molto.
E questo e' un discorso molto logico quando ci si accorge che lo stesso shader puo' essere scritto in due maniere differenti che uccidono le prestazioni rispettivamente su una o sull'altra architettura: alla luce di questo non c'e' modo di lanciare un test sintetico e decidere quale delle due sia la migliore. Perche'? Perche' dipende.
Quando dici che i giochi confermavano che nei ps2.0 nvidia andava peggio di ati, non tieni conto del fatto che quei giochi erano naturalmente scritti per favorire l'architettura ati, perche' in quel periodo era naturale mettere tutti i texture fetch all'inizio e non preoccuparsi della differenza fra fp32 e fp16. A me successe di scrivere un renderer che andava a circa 90fps su R300 e ne faceva 20 su NV30: gli shader che avevo scritto favorivano nettamente l'R300, oggi, con piu' nozioni, li scriverei in maniera diversa, e alla fine l'R300 continuerebbe ad andare piu' veloce, ma lo so adesso, perche' i valori di allora non erano attendibili.
Ecco dove l'architettura ati si' e' rivelata migliore: e' un'architettura piu' "naturale". Ma, ripeto, lo so oggi.
Anche qui la statistica ci da' una mano, dopo due anni, analizzando svariati giochi, analizzando svariati test, prendendo in esame molti casi (e non i pochi che si possono prendere in esame nelle prime settimane) si e' in grado di concludere non in maniera oggettiva, ma in maniera ragionevolmente sicura che una delle due architetture era nel complesso migliore dell'altra nell'uso quotidiano: l'R3X0 ha vinto senza ombra di dubbio, ma lo sappiamo adesso, perche' i dati che avevamo allora erano sballati.
Non quoto il resto che hai scritto perche' mi trova pienamente d'accordo, soprattutto sul discorso dell'NV40 che e' piu' interessante per gli sviluppatori che per gli utenti e sul fatto che, oggi, la scelta migliore per un utente sui giochi odierni nella fascia alta e' l'X800. Poi possiamo discutere quanto senso possa avere comprare una scheda di fascia alta solo per i giochi odierni, ma andremmo pesantemente OT. In generale io sconsiglierei di comprare gpu di fascia alta.
In conclusione: no, non esiste un metodo assoluto per valutare le prestazioni di una scheda grafica. Esistono i metodi che voi usate nelle recensioni, che sono validissimi per fare luce su un discorso davvero molto complicato che non puo' essere riassunto in un unico numero. Per questo leggo le recensioni di hwupgrade sempre con molto interesse perche' mi danno informazioni sul comportamento nei giochi odierni che non posso avere altrimenti.
vegeta88
03-10-2004, 14:18
Completamente in sintonia su tutto quello che hai scritto.
La valutazione delle varie GPU che equipaggiano le nostre Vga non può dipendere da un unico Benchmark.
Un Benchmark potrebbe essere quello che si adatta su ogni tipo di GPU almeno quelle programmabili esempio:
Un benchmark che con una Geforce3 sfrutti i suoi Vertex/Pixel shader 1.1, che con una Radeon 8500 sfrutti i suoi Vertex Shader 1.1 e Pixel Shader 1.4, con una GeforceFx 5900 sfrutti i suoi Vertex Shader 2.0 e Pixel Shader 2.0 con precisione (FP16- FP32-FX12), con una Radeon 9800 sfrutti i suoi Vertex/Pixel shader 2.0 con precisione (FP24) ecc. ecc. Son certo che un bench cosi fatto possa valutare bene le attuali GPU.
Per quanto riguarda R300 e NV3X ormai lo sanno tutti che la prima è superiore come architettura ma anche che se uno shader è scritto per ognuna delle due la differenza di prestazioni non è cosi alta come si verifica ad esempio nel 3dmark 2005.
Esempio se una applicazione scritta con shader 2.0 gira a 90 fps con una R300 è possibile che ottimizzando possa girare a 70fps su una NV3X e non a 30fps come succede oggigiorno.
Ciao ;) ;)
halduemilauno
03-10-2004, 14:32
Originariamente inviato da fek
Mi sono fatto prendere la mano dal titolo aulico :)
A parte gli scherzi, Raffaele ha scritto due post nel topic chiuso interessantissimi ai quali vorrei rispondere.
Forse non sono riuscito a spiegarmi in quel mio post. Mi e' stato domandato se esiste un metodo assoluto ed oggettivo per valutare le prestazioni di una GPU
Si' esiste. Si dovrebbe fare un test su tutte le combinazioni possibili di pixel e vertex shader con tutte le combinazioni possibili di render state con tutte le combinazioni possibili di input e poi fare una media pesata dei risultati ed esprimere un valore, che comunque introdurrebbe delle scelte non oggettive. Se esistesse un simile benchmark, consiglierei a chi lo lancia di prepararsi un caffe', perche' il risultato non arrivera' probabilmente prima della fine dell'universo. A parte gli scherzi, il calcolo combinatorio ci vieta uno strumento di valutazione assoluto e oggettivo per valutare quale scheda sia migliore.
Questo non e' un parere, e' un teorema matematico.
Da qui vengono le mie risposte "dipende", perche' le prestazioni dipendono dalla situazione e dalle condizioni e da quello che si sta cercando di fare. Anche i benchmark sintetici che hai citato dopo, dai quali hai detto che la situazione era chiara dopo qualche settimana, non sono assolutamente attendibili. Quei benchmark sui pixel shader ti dicono quale delle due architetture va piu' veloce su quel particolare pixel shader, ma non puoi dare alcun giudizio in generale.
Tu mi hai detto che la situazione era chiara dopo alcune settimane, ma se ti ricordi quei dati erano viziati dal fatto che i pixel shader usati in quei benchmark erano scritti (per caso, non in maniera voluta, abbiamo tutti scritto gli shader cosi' all'inizio) per favorire una delle due architetture. Quei valori erano viziati, quella conclusione fatta nelle prime settimane era viziata e solo per caso si rivelo' giusta, ma questo non toglie il vizio di forma, tutt'altro che trascurabile. I benchmark di HL2 erano sballati. Infatti ti ricorderai che quando nvidia introdusse l'Universal Compiler che riordina le istruzioni degli shader in maniera piu' digeribile per l'architettura NV3X la situazione si riequilibro' molto.
E questo e' un discorso molto logico quando ci si accorge che lo stesso shader puo' essere scritto in due maniere differenti che uccidono le prestazioni rispettivamente su una o sull'altra architettura: alla luce di questo non c'e' modo di lanciare un test sintetico e decidere quale delle due sia la migliore. Perche'? Perche' dipende.
Quando dici che i giochi confermavano che nei ps2.0 nvidia andava peggio di ati, non tieni conto del fatto che quei giochi erano naturalmente scritti per favorire l'architettura ati, perche' in quel periodo era naturale mettere tutti i texture fetch all'inizio e non preoccuparsi della differenza fra fp32 e fp16. A me successe di scrivere un renderer che andava a circa 90fps su R300 e ne faceva 20 su NV30: gli shader che avevo scritto favorivano nettamente l'R300, oggi, con piu' nozioni, li scriverei in maniera diversa, e alla fine l'R300 continuerebbe ad andare piu' veloce, ma lo so adesso, perche' i valori di allora non erano attendibili.
Ecco dove l'architettura ati si' e' rivelata migliore: e' un'architettura piu' "naturale". Ma, ripeto, lo so oggi.
Anche qui la statistica ci da' una mano, dopo due anni, analizzando svariati giochi, analizzando svariati test, prendendo in esame molti casi (e non i pochi che si possono prendere in esame nelle prime settimane) si e' in grado di concludere non in maniera oggettiva, ma in maniera ragionevolmente sicura che una delle due architetture era nel complesso migliore dell'altra nell'uso quotidiano: l'R3X0 ha vinto senza ombra di dubbio, ma lo sappiamo adesso, perche' i dati che avevamo allora erano sballati.
Non quoto il resto che hai scritto perche' mi trova pienamente d'accordo, soprattutto sul discorso dell'NV40 che e' piu' interessante per gli sviluppatori che per gli utenti e sul fatto che, oggi, la scelta migliore per un utente sui giochi odierni nella fascia alta e' l'X800. Poi possiamo discutere quanto senso possa avere comprare una scheda di fascia alta solo per i giochi odierni, ma andremmo pesantemente OT. In generale io sconsiglierei di comprare gpu di fascia alta.
In conclusione: no, non esiste un metodo assoluto per valutare le prestazioni di una scheda grafica. Esistono i metodi che voi usate nelle recensioni, che sono validissimi per fare luce su un discorso davvero molto complicato che non puo' essere riassunto in un unico numero. Per questo leggo le recensioni di hwupgrade sempre con molto interesse perche' mi danno informazioni sul comportamento nei giochi odierni che non posso avere altrimenti.
Vifani ha anche detto questo:
"Distacchiamoci per il momento dal discorso R420 o NV40, ma parliamo a livello generico.
Il tuo discorso è assurdo. L'Unreal Engine 3 uscirà nel 2006!!! Che me ne faccio io adesso di sapere che un chip andrà nel 2006 con l'Unreal Engine 3? Certo, è un punto a suo favore, ma non è un elemento di valutazione principale perché se quello stesso prodotto con i giochi di oggi va peggio di un altro, io prendo l'altro.
Rientrando nel discorso R420 e NV40, a mio modo di vedere le cose, il supporto di NV40 ai VS e PS 3.0 è sicuramente di grandissimo interesse, ma più per gli sviluppatori che non per l'utente finale perché di fatto attualmente i vantaggi sono nulli e anche nei prossimi mesi dubito che usciranno giochi con PS 3.0 che avranno una resa grafica o prestazioni dissimili da quelle di R420 con PS 2.0b.
Chiarito questo punto e assegnando il supporto allo SM 3.0 comunque come punto a favore per NV40 (perché lo è ed è innegabile), bisogna comunque valutare altri aspetti. Ad esempio l'antialiasing di R420 ritengo sia leggermente migliore di quello di NV40. Come prestazioni sono bene o male simili con un leggerissimo vantaggio per R420 in alcuni casi e per NV40 in altri casi.
Chi è molto lungimirante e da qui a due anni non ha intenzione di cambiare prodotto, dovrebbe orientarsi du NV40. Chi, invece, magari apprezza più l'antialiasing, dovrebbe orientarsi su R420.
Io prenderei semplicemente quella che trovo a minor prezzo e che mi offre la maggiore qualità costruttiva e la dotazione più generosa.
Ovviamente qui stiamo parlando di schede video in vendita. Se dobbiamo valutare l'architettura di R420 e di NV40 in quanto chip, il discorso è diverso. NV40 è sicuramente migliore di R420 e non per il supporto agli shader, ma perché a parità di clock a parità di pipeline è sicuramente più veloce (la 6800 Ultra va a 400 Mhz, la X800 XT PE va a 520 Mhz).
Infine riguardo la disponibilità delle Radeon X800 XT PE. Il prodotto esiste (nel senso che è stato annunciato ed è menzionato nel sito di ATI al contrario della GeForce 6800 Ultra Extreme di NVIDIA). Evidentemente è molto difficile acquistarlo, però con un po di fortuna si può trovare.
P.S: Ovviamente quando parlo di NV40 e R420 intendo GeForce 6800 Ultra e Radeon X800 PE."
ciao.
;)
Originariamente inviato da vegeta88
Completamente in sintonia su tutto quello che hai scritto.
La valutazione delle varie GPU che equipaggiano le nostre Vga non può dipendere da un unico Benchmark.
Un Benchmark potrebbe essere quello che si adatta su ogni tipo di GPU almeno quelle programmabili esempio:
Un benchmark che con una Geforce3 sfrutti i suoi Vertex/Pixel shader 1.1, che con una Radeon 8500 sfrutti i suoi Vertex Shader 1.1 e Pixel Shader 1.4, con una GeforceFx 5900 sfrutti i suoi Vertex Shader 2.0 e Pixel Shader 2.0 con precisione (FP16- FP32-FX12), con una Radeon 9800 sfrutti i suoi Vertex/Pixel shader 2.0 con precisione (FP24) ecc. ecc. Son certo che un bench cosi fatto possa valutare bene le attuali GPU.
Per quanto riguarda R300 e NV3X ormai lo sanno tutti che la prima è superiore come architettura ma anche che se uno shader è scritto per ognuna delle due la differenza di prestazioni non è cosi alta come si verifica ad esempio nel 3dmark 2005.
Esempio se una applicazione scritta con shader 2.0 gira a 90 fps con una R300 è possibile che ottimizzando possa girare a 70fps su una NV3X e non a 30fps come succede oggigiorno.
Ciao ;) ;)
così facendo però avresti delle immagini diverse, una resa qualitativa diversa, ergo i risulatati non sarebbero confrontabili
vegeta88
03-10-2004, 14:45
Checo hai ragione fino ad un certo punto.
Perchè un bench sifatto rappresenterebbe la realtà dei giochi attuali.
Esempio:
Halo con geforce 3 sfrutta gli shader 1.1 con 9700 gli shader 2.0, cosi FarCry , cosi Doom3 ecc.ecc.
Ciao;) ;)
Originariamente inviato da vegeta88
Checo hai ragione fino ad un certo punto.
Prechè un bench sifatto rappresenterebbe la realtà dei giochi attuali.
Esempio:
Halo con geforce 3 sfrutta gli shader 1.1 con 9700 gli shader 2.0, cosi FarCry , cosi Doom3 ecc.ecc.
Ciao;) ;)
ma allora salterebbe fuori che la scheda x è più veloce della y, salvo poi avere delle differenze grafiche evidenti.
vegeta88
03-10-2004, 15:08
Originariamente inviato da checo
ma allora salterebbe fuori che la scheda x è più veloce della y, salvo poi avere delle differenze grafiche evidenti.
E perchè scusa?
Se una scheda X(Geforce3) supporta delle Feature e le applica generando 30fps con qualità massima che può avere, e una scheda Y(9700) supporta + Feature e le applica generando 60fps con qualità massima che può avere.Non ci vedo niente di male in tutto ciò.
Certo è che la qualità è la velocità di esecuzione del gioco è superiore nella scheda Y(9700) perchè + nuova e tecnologicamente avanzata, ma anche la scheda X(Geforce3) permette di giocare anche se con qualità e velocità inferiori.
Ciao:)
ipotizza il caso s.m. 2.0
come sappiamo nv30 non li digerisce granchè bene, specie se in fp32.
ipotizza una scena carica di shader 2.0 nv30 metti fa 30 fps in questa scena.
ora fai girare il tutto su una 8500 e hai sempre 30 fps , ciò non sarebbe un dato sigificativo in se, sarebbe necessario un confronto qualitativo, come a dire i fps sono gli stessi, ma con nv30 l'immagine è molto più bella
vegeta88
03-10-2004, 15:23
Originariamente inviato da checo
ipotizza il caso s.m. 2.0
come sappiamo nv30 non li digerisce granchè bene, specie se in fp32.
ipotizza una scena carica di shader 2.0 nv30 metti fa 30 fps in questa scena.
ora fai girare il tutto su una 8500 e hai sempre 30 fps , ciò non sarebbe un dato sigificativo in se, sarebbe necessario un confronto qualitativo, come a dire i fps sono gli stessi, ma con nv30 l'immagine è molto più bella
In questo caso subentra oltre che il fattore delle prestazioni anche quello della qualità come tu stesso hai sottolineato.
yossarian
03-10-2004, 15:49
pur concordando con quanto detto da fek, vorrei, comunque, fare l'avvocato del diavolo e dire qualcosa in difesa dei bench sintetici (compreso il 3DMark).
Se da un lato è vero che è possibile scrivere degli shader in aniera talmente diversa da favorire l'una o l'altra architettura, è anche vero che il risultato fornito, ad esempio, dal pixel o dal texel fillrate di un bench sintetico possono dare utili indicazioni sul tipo di architettura del chip (qualora non ce ne fossero di precise e qui il riferimento al caso delle presunte 8 pipeline dell'NV30, che circolava un paio di anni fa, non è del tutto casuale: grazie ai risultati del pixel fillrate, anche del 3DMark, si è capito da subito che l'output era di soli 4 pixel per ciclo e diventava di 8 solo in caso di z-ops only, grazie all'architettura del modulo ROP's dotato di due linee parallele capaci di operare entrambe z-ops e ognuna con una sua uscita indipendente verso il frame buffer).
Altre utili indicazioni si sono tratte sui problemi legati al sottodimensionamento dei buffer temporanei on chip dell'NV30, che faceva letteralmente dimezzare l'output in caso di utilizzo di full precision in luogo dell'half precision (ossia dei 32 bit al posto dei 16 bit), situazione in alcuni casi aggravata ulteriormente anche dall'utilizzo (come ha detto fek, di shader poco "digeribili" dall'architettura dei chip NV e che è stata in parte migliorata dall'utilizzo del compilatore interno introdotto nei drivers NV).
Sempre dai bench sintetici si è capito che le difficoltà dell'NV30 nella gestione dei calcoli in fp derivavano anche dall'utilizzo di una sola unità fp che, oltretutto, si occupava di gestire anche le operazioni di texture fetch (e non potendo fare entrambe le cose in contemporanea rendeva necessarie frequenti operazini di shader replacement); questa limitazione esiste anche relativamente ad una delle unità fp dell'NV40). Da tutto questo, al di là delle considerazioni a posteriori, fatte dopo aver testato shader di tipo diverso su entrambe le architetture, appariva già chiaro che l'NV30 era un chip nato per lavorare principalmente in fx (o al massimo utilizzando fp16) e che l'R300, non soggetto a questo tipo di limitazioni, presentava un'architettura complessivamente migliore (pur avendo anche essa i suoi punti deboli).
Allo stato attuale, sempre gli stessi bench sintetici ci dicono che la situazione è molto diversa: non esiste un'architettura superiore all'altra; ognuna ha dei punti di forza e dei punti di debolezza che rendono la situazioni più incerta ed equilibrata.
ATi ha il vantaggio del low-k che unito alla minore complessità del chip, permette di raggiungere frequenze di lavoro superiori, ha una texture unit indipendente dalle unità fp e utilizza un algoritmi che permettono di raggiungere rapporti di compressione più elevati (oltre al temporal AA che non è una novità assoluta, perchè la rotazione della griglia era non solo possibile ma utilizzata anche sulla serie R3x0).
nVIDIA ha un'architettura più flessibile, con le unità di calcolo composte da gruppi di 4 fp32 che è qualcosa di ben diverso dalle 2 unità ATi (una vettoriale fp72 e una scalare fp24); ha la possibilità di fare dynamic branching (anche se si deve ancora valutare il reale impatto di questa feature sulle prestazioni), ha la possibilità di svolgere operazioni di texture fetch e texture look up anche all'interno delle unità VS, ha un collegamento di tipo crossbar tra pixel shader pipeline e ROP's.
I bench sintetici ci hanno anche "detto", ad esempio, che NV40 non ha gli stessi problemi di NV3x nella gestione dei calcoli in fp32 (e di conseguenza non ha buffer sottodimensionati).
Concludo dicendo che dai bench sintetici si possono trarre indicazioni utili, purchè non si limiti l'analisi al punteggio finale o (nel caso del 3DMark) al frame rate con questo o quel game test, ma si concentra l'attenzione su alcuni test in particolare.
Ovvio che i risultati forniti da questi test vanno poi approfonditi con analisi più accurate che prevedano l'utilizzo di diversi tipi di shader, lo sfruttamento di tutte le potenzialità o il tentativo di mettere alla corda l'una o l'altra architettura, per poterne valutare a fondo punti di forza e limiti.
yoss, la voce della saggezza :)
Alberto Falchi
03-10-2004, 16:54
Originariamente inviato da yossarian
grazie ai risultati del pixel fillrate, anche del 3DMark, si è capito da subito che l'output era di soli 4 pixel per ciclo e diventava di 8 solo in caso di z-ops only, grazie all'architettura del modulo ROP's dotato di due linee parallele capaci di operare entrambe z-ops e ognuna con una sua uscita indipendente verso il frame buffer).
Come sottolinei più avanti, è fondamentale sapere interpretare i risultati, non limitarsi al numero riassuntivo. E, questa peculiarità di NV30 è uno svantaggio in alcuni casi, come 3D Mark, positivo in altri, come nel calcolo delle volume shadows di Doom 3.
Ovvio che i risultati forniti da questi test vanno poi approfonditi con analisi più accurate che prevedano l'utilizzo di diversi tipi di shader, lo sfruttamento di tutte le potenzialità o il tentativo di mettere alla corda l'una o l'altra architettura, per poterne valutare a fondo punti di forza e limiti.
Concordo, ma si tratta di un'analisi molto tecnica ma puramente teorica. Conoscere i punti di forza e di debolezza di una scheda è fondamentale per la sua analisi, ma a mio avviso la vera difficoltà è sapergli attribuire il giusto peso.
La difficoltà di gestire gli FP32 e il mancato supporto a FP3 di NV30 sono stati limiti nella maggior parte dei giochi. Ma se i programmatori avessero optato per utiilzzare il mix di FP16 e FP32 (magari per ottenere migliori effeti HDR) al posto di FP24, probabilmente sarebbe stata l'architettura ATI a uscire "perdente" dal confronto. Non essendo un programmatore, non posso stabilire se la strada intrapresa dalla maggior parte degli sviluppatori fosse la migliore, nè se fosse quella che potenzialmente dava i migliori risultati. Fatto sta che la maggior parte degli shader utilizzati nei giochi, digeriva meglio ATI.
I bench sintetici aiutano quindi a capire il potenziale della scheda, ma i giochi risultano un'indicazione fondamentale per capire quali dei pregi e difetti delle VGA hanno un peso effettivo su applicazioni reali.
IMHO, decretare in maniera assoluta la superiorità dell'una o dell'altra architettura in base a test, sintetici o meno, è errato, anche perché nella maggior parte dei casi le differenze non sono sostanziali, e variano a seconda della risoluzione, dell'attivazione o meno dei filtri e così via.
Pape
vegeta88
03-10-2004, 17:01
IMHO, decretare in maniera assoluta la superiorità dell'una o dell'altra architettura in base a test, sintetici o meno, è errato, anche perché nella maggior parte dei casi le differenze non sono sostanziali, e variano a seconda della risoluzione, dell'attivazione o meno dei filtri e così via.
Concordo in pieno.
Ciao:) :)
Signifer
03-10-2004, 17:04
Originariamente inviato da GMCPape
Come sottolinei più avanti, è fondamentale sapere interpretare i risultati, non limitarsi al numero riassuntivo. E, questa peculiarità di NV30 è uno svantaggio in alcuni casi, come 3D Mark, positivo in altri, come nel calcolo delle volume shadows di Doom 3.
Concordo, ma si tratta di un'analisi molto tecnica ma puramente teorica. Conoscere i punti di forza e di debolezza di una scheda è fondamentale per la sua analisi, ma a mio avviso la vera difficoltà è sapergli attribuire il giusto peso.
La difficoltà di gestire gli FP32 e il mancato supporto a FP3 di NV30 sono stati limiti nella maggior parte dei giochi. Ma se i programmatori avessero optato per utiilzzare il mix di FP16 e FP32 (magari per ottenere migliori effeti HDR) al posto di FP24, probabilmente sarebbe stata l'architettura ATI a uscire "perdente" dal confronto. Non essendo un programmatore, non posso stabilire se la strada intrapresa dalla maggior parte degli sviluppatori fosse la migliore, nè se fosse quella che potenzialmente dava i migliori risultati. Fatto sta che la maggior parte degli shader utilizzati nei giochi, digeriva meglio ATI.
I bench sintetici aiutano quindi a capire il potenziale della scheda, ma i giochi risultano un'indicazione fondamentale per capire quali dei pregi e difetti delle VGA hanno un peso effettivo su applicazioni reali.
IMHO, decretare in maniera assoluta la superiorità dell'una o dell'altra architettura in base a test, sintetici o meno, è errato, anche perché nella maggior parte dei casi le differenze non sono sostanziali, e variano a seconda della risoluzione, dell'attivazione o meno dei filtri e così via.
Pape
Giusto, buon vecchio Pape!:mano:
yossarian
03-10-2004, 18:54
Originariamente inviato da GMCPape
Concordo, ma si tratta di un'analisi molto tecnica ma puramente teorica. Conoscere i punti di forza e di debolezza di una scheda è fondamentale per la sua analisi, ma a mio avviso la vera difficoltà è sapergli attribuire il giusto peso.
La difficoltà di gestire gli FP32 e il mancato supporto a FP3 di NV30 sono stati limiti nella maggior parte dei giochi. Ma se i programmatori avessero optato per utiilzzare il mix di FP16 e FP32 (magari per ottenere migliori effeti HDR) al posto di FP24, probabilmente sarebbe stata l'architettura ATI a uscire "perdente" dal confronto. Non essendo un programmatore, non posso stabilire se la strada intrapresa dalla maggior parte degli sviluppatori fosse la migliore, nè se fosse quella che potenzialmente dava i migliori risultati. Fatto sta che la maggior parte degli shader utilizzati nei giochi, digeriva meglio ATI.
I bench sintetici aiutano quindi a capire il potenziale della scheda, ma i giochi risultano un'indicazione fondamentale per capire quali dei pregi e difetti delle VGA hanno un peso effettivo su applicazioni reali.
IMHO, decretare in maniera assoluta la superiorità dell'una o dell'altra architettura in base a test, sintetici o meno, è errato, anche perché nella maggior parte dei casi le differenze non sono sostanziali, e variano a seconda della risoluzione, dell'attivazione o meno dei filtri e così via.
Pape
il problema della serie NV30 e derivati era non tanto la difficoltà, quanto l'impossibilità a gestire calcoli in fp32; da qui l'impossibilità pratica, non solo teorica, a gestire modalità miste fp16/fp32. Volendo approfondire ancora la cosa, la dipendenza tra unità fp32 (unica sull'NV30) e TMU, rendeva impossibile lo svolgimento contemporaneo di calcoli in floating point (fossero pure in fp16) e le operazioni di texture fetch. Questo per non parlare dell'HDR.
Qualcosa è migliorato col passaggio da NV30 a NV35, poichè sono state aggiunte altre unità di calcolo in fp in luogo di quelle operanti in virgola fissa. Restavano i problemi legati all'insufficienza dei buffer temporanei e alla dipendenza tra FPU principale e TMU. Nella scorsa generazione di chip video, decretare un vincitore era un'operazione piuttosto semplice.
Diverso il discorso con quella attuale; però l'NV40 è solo un lontano parente dell'NV3x, di cui conserva solo l'architettura delle ROP's, ma che ha tutto il resto completamente modificato, tanto che le pixel pipeline (vero punto debole dell'NV3x) sono più simili a quelle dell'R300 che a quelle dell'NV30.
Che poi, alla fine, le prestazioni che contano siano quelle con i giochi, non credo che ci siano dubbi; però c'è da dire che, con un gioco, non sempre è facile rendersi conto se effettivamente due chip stanno facendo girare l'applicazione utilizzando le stesse modalità, oppure se e in che misura, si proceda ad ottimizzazioni più o meno lecite. Ad esempio, un gioco che teoricamente, sul chip x dovrebbe girare in fp, potrebbe, tramite operazioni di shader replacement, girare in fx, oppure adoperare modalità ibride di filtraggio anche in modalità quality, ecc.
Anche le differenze che si ottengono in base all'utilizzo di diverse risoluzioni o all'uso, o meno, di determinati filtri, sono utili indicatori dell'efficienza di una certa architettura in determinate condizioni di impiego.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.