Tecnologie multi-GPU ATI e Nvidia: facciamo il punto

Tecnologie multi-GPU ATI e Nvidia: facciamo il punto

Tecnologie multi-GPU ATI CrossFire e Nvidia SLI a confronto. Nelle prove ci siamo occupati non solo di configurazioni SLI, ma anche triple SLI e CrossFireX, le uniche, al momento, che consentono di sfruttare 4 GPU contemporaneamente

di pubblicato il nel canale Schede Video
NVIDIAATI
 
  • Articoli Correlati
  • Nvidia GTX 260 core 216 e ATI Radeon HD 4870, la sfida Nvidia GTX 260 core 216 e ATI Radeon HD 4870, la sfida Confronto tra le due schede di fascia medio/alta che attualmente rappresentano la soluzione ideale per chi, con il PC, desidera giocare senza compromessi
  • ATI vs NVIDIA: a confronto 17 configurazioni video ATI vs NVIDIA: a confronto 17 configurazioni video Confrontiamo le schede video ATI della serie Radeon HD 4800 con quelle NVIDIA delle famiglie Geforce 9 e GeForce GTX 200. Inserite nell'analisi le schede Sapphire Radeon HD 4850 X2, la prima con due GPU Radeon HD 4850 montate sullo stesso PCB, e Asus EAH4870 X2 TOP, con frequenze di clock overcloccate di default. 6 titoli a confronto con 17 schede e 3 risoluzioni video.
87 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
SteveMeister8930 Dicembre 2008, 14:09 #51
grandi..ottimo articolo come sempre!
mi ha un po sorpreso il fatto che lo sli va considerevolmente meglio del crossfire..
marchigiano30 Dicembre 2008, 14:16 #52
Originariamente inviato da: qboy
io rimango sempre del mio parere:le schede con una sola gpu vanno confrontate con un'altra singola. Non come in questi casi la scheda doppia di ati contro una gtx280( anche se a volte gli da la polvere negli occhi). dovevano aspettare a confrontare la 4870x2 con la gtx 295,e adesso le 4870 andavano con le 280gtx.Nonostante questo nvidia nella maggior parte dei test è sempre in testa e SONO ORGOGLIOSO DI AVER AVUTO SEMPRE SCHEDE NVIDIA.(bella sta frase neh)


no le schede vanno confrontate per prezzi... o te confronti le auto a seconda del numero di cilindri?

la 4870 1gb si trova a 202€
la gtx260-216 a 249€
la 4850x2 512 a 284€
la gtx280 368€
la 4870 x2 408€

che senso ha confrontare una scheda a 368€ con una da 202? ci mancherebbe che quella da 368€ va più lenta...
Pts.Mac30 Dicembre 2008, 15:01 #53
Originariamente inviato da: Trabant
A tutti i soliti fanboy con i soldi di paparino ...

L'articolo NON è un confronto di mercato.

E' un test puramente tecnologico, volto a misurare le variazioni prestazionali al variare del numero delle GPU, e come le varie soluzioni (ATI e Nvidia) scalano.
Solo questo e nient'altro.

C'è un UNICO parametro di valutazione delle schede video: il PREZZO.
Si prendono 2 schede che costano uguale e si confrontano le prestazioni.
Tutto il resto è fuffa, fumo negli occhi per segaioli.


Per questo motivo, io vorrei vedere nei test che eventualmente verranno, tutti i grafici degli FPS normalizzati al prezzo medio sul mercato della scheda.
Piuttosto che mettere i soli FPS, bisognerebbe fare i grafici con FPS/€.

Perchè a parte i pochi maniaci che spenderebbero il triplo per avere quei 5 FPS in più per fare lo sborone con l'amichetto, quello che gli utenti vogliono sapere è la resa dei soldi che stanno per sborsare.

In quest'ottica, già una semplice soluzione SLI o Xfire, se come dicono i test incrementa la prestazioni di un 50%, è perdente.
Se, a titolo di esempio, una scheda da 100€ mi fa 100FPS al gioco X, e con 2 schede in SLI ho 150FPS, nel primo caso avrei 1FPS/€, mentre nel secondo starei a 0,75FPS/€.
E questo senza contare le spese aggiuntive per reggere questa configurazione.

Per fare un'analisi seria occorrerebbe quindi in primo luogo considerare il parametro FPS/€, e poi effettuare i test su diciamo i 10 più diffusi titoli e addirittura pesare i risultati in base al numero di copie vendute.


Mi rendo conto che un'analisi del genere si rivelerebbe impietosa e toglierebbe quell'alone di vago nel quale sguazzano i costruttori per spennare i fanboy pollastri.
Però sarebbe veramente utile per gli utenti che guardano alla sostanza.


Non ho mai capito perchè in sto forum chiunque sia appassionato di tecnologia e sia disposto a spenderci parecchi soldi, sia perchè gli avanzino o perchè preferisca tirare la cinghia da altre parti, sia un fanboy figlio di papà,un segaiolo, un maniaco. Se ragionassi come te, dovrei concludere che sei uno straccione invidioso e frustrato. Ti piace questo ragionamento basato sul tuo modus operandi? Cacchio ognuno spende i soldi che ha come e quanto gli pare. E questo sito si chiama hwupgrade, quindi si recensiscono e confrontano i componenti, non è "hardware discount" (senza alcuna offesa per i discount :Prrr e le recensioni non devono essere "hei se prendi questo allo stesso prezzo ti danno un pacco di caramelle,conviene!"
Goofy Goober30 Dicembre 2008, 15:03 #54
Originariamente inviato da: marchigiano
che senso ha confrontare una scheda a 368€ con una da 202? ci mancherebbe che quella da 368€ va più lenta...


quoto in pienissimo!

questo discorso vale anche per tutte le persone che sbandieravano che tanto la 280GTX in SLI va di più della X2, e ovvio direi visto quanto costano 2 di quelle GPU li rispetto alla sola 4870X2
7stars30 Dicembre 2008, 15:09 #55
Originariamente inviato da: Trabant
A tutti i soliti fanboy con i soldi di paparino ...

L'articolo NON è un confronto di mercato.

E' un test puramente tecnologico, volto a misurare le variazioni prestazionali al variare del numero delle GPU, e come le varie soluzioni (ATI e Nvidia) scalano.
Solo questo e nient'altro.

C'è un UNICO parametro di valutazione delle schede video: il PREZZO.
Si prendono 2 schede che costano uguale e si confrontano le prestazioni.
Tutto il resto è fuffa, fumo negli occhi per segaioli.


Per questo motivo, io vorrei vedere nei test che eventualmente verranno, tutti i grafici degli FPS normalizzati al prezzo medio sul mercato della scheda.
Piuttosto che mettere i soli FPS, bisognerebbe fare i grafici con FPS/€.

Perchè a parte i pochi maniaci che spenderebbero il triplo per avere quei 5 FPS in più per fare lo sborone con l'amichetto, quello che gli utenti vogliono sapere è la resa dei soldi che stanno per sborsare.

In quest'ottica, già una semplice soluzione SLI o Xfire, se come dicono i test incrementa la prestazioni di un 50%, è perdente.
Se, a titolo di esempio, una scheda da 100€ mi fa 100FPS al gioco X, e con 2 schede in SLI ho 150FPS, nel primo caso avrei 1FPS/€, mentre nel secondo starei a 0,75FPS/€.
E questo senza contare le spese aggiuntive per reggere questa configurazione.

Per fare un'analisi seria occorrerebbe quindi in primo luogo considerare il parametro FPS/€, e poi effettuare i test su diciamo i 10 più diffusi titoli e addirittura pesare i risultati in base al numero di copie vendute.


Mi rendo conto che un'analisi del genere si rivelerebbe impietosa e toglierebbe quell'alone di vago nel quale sguazzano i costruttori per spennare i fanboy pollastri.
Però sarebbe veramente utile per gli utenti che guardano alla sostanza.

bravo...sei proprio in sintonia col mio pensiero cmq appena compro un full hd forse una soluzione doppia gpu la prendo...ma solo dx11,quindi mai prima di windows 7
Pashark30 Dicembre 2008, 16:32 #56
Da questo articolo si capisce chiaramente perché le soluzioni multiGPU non sono poi così usate: il software non è maturo e molto spesso le prestazioni decadono...
Giusto Fallout comincia ad essere decente e la scalabilità del motore si vede.

Interessante invece è la possibilità di dedicare una scheda alla sola fisica, un po' come il vecchio co-processore matematico ^^
DEABlade30 Dicembre 2008, 19:11 #57
ma dai ragazzi.. ma vi rendete conto??? triple sli.. quad crossfire!!!
in più intel i7 extreme.. ma stiamo scherzando.. ma vi rendete conto le temperature che ci sono dentro un pc??? x non parlare dello spazio.. quanto può occupare un triplo sli... x cosa, x avere un aumento del 10% di prestazioni rispetto allo SLi normale?
x non parlare che mi toccherà farmi un case alto 1 m e mezzo con tutti questi sli nel pc..
blackshard30 Dicembre 2008, 19:19 #58
Originariamente inviato da: qboy
io rimango sempre del mio parere:le schede con una sola gpu vanno confrontate con un'altra singola. Non come in questi casi la scheda doppia di ati contro una gtx280( anche se a volte gli da la polvere negli occhi). dovevano aspettare a confrontare la 4870x2 con la gtx 295,e adesso le 4870 andavano con le 280gtx.Nonostante questo nvidia nella maggior parte dei test è sempre in testa e SONO ORGOGLIOSO DI AVER AVUTO SEMPRE SCHEDE NVIDIA.(bella sta frase neh)


Invece sbagli ragionamento. Per scelta progettuale rv770 è un chip singolo per la fascia medio-alta, mentre la fascia altissima viene coperta con due chip singoli. L'articolo su rv770 di anandtech rende benissimo il problema che c'è sotto: i chip video stanno diventando troppo grandi e con troppi transistor.
Più cresce la dimensione del chip è più è probabile che esca difettoso (è un po' la logica "più è grande il bersaglio, più è facile colpirlo" e quindi più è costoso produrlo, quindi quello che si è fatto in casa ati è invertire questa tendenza e coprire la fascia fanatico con i modelli con due chip, con tutti i vantaggi e gli svantaggi che ne derivano.
Il best buy comunque attualmente rimane la 4850, e questo la dice lunga sulla bontà dell'idea a soluzione del problema iniziale.
marchigiano30 Dicembre 2008, 20:09 #59
Originariamente inviato da: blackshard
Più cresce la dimensione del chip è più è probabile che esca difettoso (è un po' la logica "più è grande il bersaglio, più è facile colpirlo" e quindi più è costoso produrlo, quindi quello che si è fatto in casa ati è invertire questa tendenza e coprire la fascia fanatico con i modelli con due chip, con tutti i vantaggi e gli svantaggi che ne derivano.


Originariamente inviato da: Pashark
Da questo articolo si capisce chiaramente perché le soluzioni multiGPU non sono poi così usate: il software non è maturo e molto spesso le prestazioni decadono...


ma infatti il problema oggi è qui, mi pare ridicolo che i nuovi giochi non scalano bene, non dico al 100% ma almeno un 80-90%... finchè non risolvono questo problema ci tocca tirare fuori vagonate di euro per le gtx280

i consumi è ovvio che siano elevati, se uno gioca in full-hd o superiore mica più pretendere il consumo di una scheda integrata... però sarebbe opportuno, specie col multi-gpu, la possibilità di spegnere proprio una gpu quando non serve, in questo modo il consumo sarebbe accettabile
blackshard30 Dicembre 2008, 20:45 #60
Originariamente inviato da: marchigiano
ma infatti il problema oggi è qui, mi pare ridicolo che i nuovi giochi non scalano bene, non dico al 100% ma almeno un 80-90%... finchè non risolvono questo problema ci tocca tirare fuori vagonate di euro per le gtx280


Mah è un bel dubbio.
Renderizzare una scena è un lavoro molto parallelizzabile, non riesco a comprendere perchè non si riesce a trovare un modo generico per suddividere il lavoro fra due o più unità. Ai tempi dello SLI delle voodoo si otteneva uno speedup di quasi il 100% e l'algoritmo era molto semplice: una scheda renderizza le righe orizzontali, l'altra quelle verticali, così la scena veniva renderizzata per metà delle scanline verticali da ciascuna scheda, e poi il tutto veniva fuso nella scena a risoluzione piena. Oggi con decine di layer di astrazione non si riesce ad ottenere lo stesso risultato e non riesco a capire dov'è il problema. :/

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^