PDA

View Full Version : Folding@home anche con GPU NVIDIA


Redazione di Hardware Upg
20-11-2006, 11:23
Link alla notizia: http://www.hwupgrade.it/news/skvideo/19285.html

La serie di schede video GeForce 8800 potrebbe presto venir utilizzata con un client Folding@home appositamente studiato per calcoli GP-GPU

Click sul link per visualizzare la notizia.

ronthalas
20-11-2006, 11:36
peccato non siano previste queste funzionalità per schede video di fascia più bassa, non mi dispiacerebbe contribuire in modo più incisivo a questa ricerca (ultimamente hanno aggiunto anche quella sul cancro).

v1doc
20-11-2006, 11:54
spero che facciano anche il client per Seti :(

wisher
20-11-2006, 11:56
sarebbe bello se anche boinc sfruttasse le GPU

Mparlav
20-11-2006, 12:09
Però sarebbe interessante che, oltre per PS3, facessero anche il client per Xbox360: tra cpu e gpu, c'è una bella potenza di calcolo a disposizione, senza dire il rapporto prestazioni / consumi potenzialmente assai favorevole rispetto al PC.

Su una Xbox 360 al massimo si consumano 160W, mentre su un PC con dual core e x1900 si consumano circa 250-300W.

gabi.2437
20-11-2006, 12:26
Allora

Hanno già detto che non renderanno compatibili le schede più vecchie perchè troppo poco potenti, meglio concentrarsi su quelle nuove, quindi se avete schede più vecchie di quelle elencate, mettetevi il cuore in pace :D

Poi, seti e boinc...boinc è solo l'infrastruttura, ciò che conta sono i vari progetti, se quelli di seti o altri si daranno una mossa e faranno pure loro il client gpu, meglio, però la vedo dura perchè non hanno abbastanza risorse per programmare client per qualunque cosa :D Ricordo che folding@home è da circa 2 anni che va avanti a programmar sto client gpu ed è ancora in beta

Il Capitano
20-11-2006, 12:42
Ottima notizia per folding@home, ora sarebbe il momento che anche i progetti boinc-based guardassero con piu' interesse alle gpu.

un kentsfield con sli :eek: :sbav: 6 core per elaborare dati tutti in un pc :D

Il Capitano
20-11-2006, 12:43
Però sarebbe interessante che, oltre per PS3, facessero anche il client per Xbox360: tra cpu e gpu, c'è una bella potenza di calcolo a disposizione, senza dire il rapporto prestazioni / consumi potenzialmente assai favorevole rispetto al PC.

Su una Xbox 360 al massimo si consumano 160W, mentre su un PC con dual core e x1900 si consumano circa 250-300W.

Visto che per la gpu hanno bocciato le schede piu' vecchie perche' meno potenti, allo stesso modo credo che boccerranno la xbox360. Il cell dentro la ps3 si dice essere molto piu' prestante :)

Fx
20-11-2006, 12:46
di fatto, quel tipo di applicazione è uno dei pochi che può sfruttare il cell... i giochi di tutta quella potenza sul vettoriale se ne fanno piuttosto poco, il grosso dei calcoli in virgola mobile sono per il rendering 3d ma per quello c'è già la scheda video (infatti sony voleva impiegare il cell per questo scopo ma s'è resa conto solo a cose fatte che una gpu dedicata era indispensabile per ottenere certi risultati)... per i giochi infatti sarebbe più utile potenza sul general purpose su cui in realtà il cell è proprio carente.

paciuli
20-11-2006, 12:49
Dalle FAQ:

Quali sono i requisiti minimi di sistema?
Tutti i computer possono contribuire a Folding@Home. Tuttavia, se il computer è troppo lento (non è stato comprato negli ultini 3-4 anni), potrebbe non essere abbastanza veloce da terminare le WU entro il tempo limite. In questo caso, puoi far girare il client con unità che non hanno limitazioni di tempo (deadlineless).

Quindi? :confused:

Fx
20-11-2006, 12:54
Visto che per la gpu hanno bocciato le schede piu' vecchie perche' meno potenti, allo stesso modo credo che boccerranno la xbox360. Il cell dentro la ps3 si dice essere molto piu' prestante :)

per il vettoriale si, dovrebbe essere circa il doppio, però teniamo conto che tutti i valori di mille mila gflops che ci sono stati forniti si riferiscono a valori di picco e per calcoli a singola precisione: bisogna vedere in pratica cosa ti serve. già se per questo tipo di applicazione servissero i calcoli in precisione doppia, i gflops scenderebbero di 20 volte (non del 20%... di 20 volte)...

è una cpu troppo specifica, in soldoni è un DSP... i cui numeri di picco tra l'altro non sono gran chè se paragonati a quelli della GPU che ha a fianco (che può essere utilizzata tanto quanto per applicazioni come il folding@home)...

cmq ripeto scordatevi i numeri di picco, quelli servono solo a fare hype... s'è visto con il confronto tra i vari ridge racer: il numero di poligoni sulla versione ps3 è notevolmente più basso (lasciate perdere i colori o l'illuminazione, guardate ad es. gli alberi nella seconda foto: sulla versione ps3 ce ne sono un quarto), nonostante in teoria la GPU della ps3 abbia il doppio dei GFLOPS di quella della xbox 360... il punto è che ripeto sono valori di picco e aggregati, non hanno nessun senso all'atto pratico.

Pinko7
20-11-2006, 13:18
cosa significa "GP-GPU utilizzando un client Folding@home"???

gabi.2437
20-11-2006, 13:27
Dalle FAQ:



Quindi? :confused:
Quindi finora folding@home sfruttava il processore

Te scaricavi il programma, lo avviavi e quello sfruttava il processore per elaborare il tutto

Se hai un pc vecchio ci metteva troppo e finivi oltre la deadline (la "data di scadenza" diciamo)


Qua però si parla del NUOVO client che sfrutta la SCHEDA VIDEO
E funziona solo con le schede video ATI della serie 19xx (1900, 1950...) e con le nuove nvidia (ed è ancora in beta)

Per i Tflops, eccovi il link delle statistiche http://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstats

Mparlav
20-11-2006, 14:34
L'R500 della xbox360 è più potente di una x1900, mentre i 3 processori PowerPC a 3.2Ghz (Xenos) sono dual core.
Considerando che un singolo PowerPC ha un IPC poco inferiore a quello di un Athlon X2 di pari clock (ma dipende dall'ottimizzazione del codice), prova a pensare cosa significa averne 3 a 3.2Ghz.

Il valore dichiarato è 115 Gflops/s, che è lo stesso valore che Hp dichiara per un suo cluster da 16 processori Opteron 270 da 1.8Ghz (8 dual Opteron su rack 1 connessi per centri di calcolo).
Se anche il valore per lo Xenos fosse sopravvalutato, di potenza ce n'è cmq da vendere, se paragonata a quella degli attuali PC.

Probabilmente c'è qualche problema a produrre un codice ottimizzato per girare su cpu e gpu, usando solo i 10 Mb di Dram della gpu ed i 512Mb per la cpu.

Ma dico, la Fondazione Gates potrebbe anche fare la "donazione" di un bel codice Folding@home per scopi di ricerca :-)

Dott.Wisem
20-11-2006, 15:41
[...]già se per questo tipo di applicazione servissero i calcoli in precisione doppia, i gflops scenderebbero di 20 volte (non del 20%... di 20 volte)...Ma come di 20 volte?? Per fare calcoli a doppia precisione ci vogliono il doppio dei cicli di clock, non 20....[...]cmq ripeto scordatevi i numeri di picco, quelli servono solo a fare hype... s'è visto con il confronto tra i vari ridge racer: il numero di poligoni sulla versione ps3 è notevolmente più basso (lasciate perdere i colori o l'illuminazione, guardate ad es. gli alberi nella seconda foto: sulla versione ps3 ce ne sono un quarto)Noooooo! Ancora con queste foto di Ridge Racer... Basta! :muro: :p , nonostante in teoria la GPU della ps3 abbia il doppio dei GFLOPS di quella della xbox 360... Questa è bella... E in quale documento ufficiale (o comunque attendibile) starebbe scritto? Forse ti stai confondendo con il confronto fra Cell e cpu tri-core della 360...
Ora non ho i diagrammi sottomano, ma mi pare di ricordare che l'RSX fosse leggermente più potente dello Xenos in termini di fill-rate teorico, ma che perdesse nettamente sul piano poligonale (perché l'RSX può contare su al max 8 unità di VS, mentre lo Xenos può usarne in quantità variabile a seconda delle necessità, grazie all'architettura a 48 unità shader unificati) e che nei calcoli di illuminazione molto complessi, l'architettura ATI, grazie a delle circuiterie di branching più efficaci, riesce ad essere abbastanza in vantaggio sull'hw nVidia. Non parliamo poi dell'eDRAM (256GB/s) che consente di avere un AA4x quasi a gratis.
Tutti questi discorsi, ovviamente, sono fuffa, poiché se i programmatori non sfruttano le peculiarità di ogni console, alla fine vince quella che ha le performance general-purpose più elevate. Vedi Call Of Duty 3, convertito su PS3 senza sfruttare un tubo del Cell, e che difatti risulta più fluido sull'XBOX360...

Dott.Wisem
20-11-2006, 15:50
L'R500 della xbox360 è più potente di una x1900, mentre i 3 processori PowerPC a 3.2Ghz (Xenos) sono dual core.Attenzione con le parole... Innanzitutto Xenos è la GPU, mentre Xenon è la CPU 3-core. Secondariamente, i 3 core dello Xenon non sono dual-core, ma dual-threaded, ovvero adottano una tecnologia simile all'HyperThreading dei Pentium4 per cercare di riempire i tempi morti derivanti da stalli all'interno della pipeline.
Considerando che un singolo PowerPC ha un IPC poco inferiore a quello di un Athlon X2 di pari clock (ma dipende dall'ottimizzazione del codice), prova a pensare cosa significa averne 3 a 3.2Ghz. Attenzione che il PowerPC è una cosa.... Lo Xenon dell'XBOX360 ne è un'altra! I 3 core dello Xenon sono molto meno raffinati rispetto ai PowerPC G4 e G5 montati ad esempio nei vecchi Mac e, di conseguenza, hanno un IPC molto inferiore. L'elevata frequenza di 3.2GHz, insieme al dual-threading, servono proprio per colmare la lacuna dello scarso IPC.

freeeak
20-11-2006, 17:47
ma perche limitare solo a queste sk di fascia alta? bha penso che sia solo questione di driver in fondo.

gabi.2437
20-11-2006, 17:54
ma perche limitare solo a queste sk di fascia alta? bha penso che sia solo questione di driver in fondo.
Forse perchè non è così facile adattare il programma alle varie schede video?

leoneazzurro
20-11-2006, 21:57
Ma come di 20 volte?? Per fare calcoli a doppia precisione ci vogliono il doppio dei cicli di clock, non 20...

No, pare purtroppo che effettivamente per qualche collo di bottiglia nel Cell le prestazioni globali in DP siano drasticamente più basse di quelle in SP.
Si parla di riduzioni di 10-15 volte (da oltre 200 GFLOPS a meno di 20).

Dott.Wisem
21-11-2006, 11:46
No, pare purtroppo che effettivamente per qualche collo di bottiglia nel Cell le prestazioni globali in DP siano drasticamente più basse di quelle in SP.
Si parla di riduzioni di 10-15 volte (da oltre 200 GFLOPS a meno di 20).Scusa se te lo chiedo, non è che non mi fidi, ma sarei curioso di approfondire... Non è che avresti qualche link a proposito di queste congetture?

Man0war
21-11-2006, 12:15
Oggi ho scoperto che la mia 7600gt è ufficialmente considerata una m...a!

Dott.Wisem
21-11-2006, 12:29
Oggi ho scoperto che la mia 7600gt è ufficialmente considerata una m...a!Ma dai, è un'ottima scheda video di fascia media.

Banus
21-11-2006, 12:31
Scusa se te lo chiedo, non è che non mi fidi, ma sarei curioso di approfondire... Non è che avresti qualche link a proposito di queste congetture?
Qui:
http://www.blachford.info/computer/Cell/Cell1_v2.html

I calcoli sono relativi a 4 Ghz, considerando frequenza e numero di SPE della Playstation 3 si ottengono facilmente prestazioni inferiori a 20 Gflops in DP.
Il Cell attuale è ottimizzato per calcoli grafici e quindi sacrifica la velocità dei calcoli in doppia precisione, ma pare che IBM stia lavorando a una variante per calcoli scientifici (vedi qui (http://www.hpcwire.com/hpc/893353.html) ).

leoneazzurro
21-11-2006, 13:11
Grazie Banus, mi hai risparmiato un bel pò di fatica :D

Il punto è questo (tratto da link di Banus) :

"Double precision (64 bit) floating point data types are used when dealing with very large or small numbers or when you need to be very accurate. The first version of Cell supports these but the implementation shares the computation area of the single precision floating point units. Sharing these means the designers have saved a lot of room but there is a performance penalty, the first generation Cell can "only" do around 25 dual precision GFLOPS at 4 GHz. The first generation however are designed for the PS3 where high double precision operations are not necessary. IBM have alluded to the possibility that a later generation will include full speed dual precision floating point units from which you can expect a very sizeable performance boost."

Comunque 25 GFlops sono ancora tanti, ma diciamo che con le CPU X86 di punta attuali siamo intorno a quei livelli.

Dott.Wisem
21-11-2006, 16:17
Ringrazio tantissimo a entrambi per il link e il quote. ;)

Ad ogni modo, non pensavo che l'utilizzo di FPU a 32bit per eseguire calcoli a 64bit potesse introdurre un rallentamento di 10x.... Ma vale in generale, o solo per le FPU presenti nelle SPE del Cell?

leoneazzurro
21-11-2006, 16:22
Ringrazio tantissimo a entrambi per il link e il quote. ;)

Ad ogni modo, non pensavo che l'utilizzo di FPU a 32bit per eseguire calcoli a 64bit potesse introdurre un rallentamento di 10x.... Ma vale in generale, o solo per le FPU presenti nelle SPE del Cell?

Solo per quelle del Cell, perchè hanno una struttura peculiare. Ciò non toglie che in future versioni potenziate di questa CPU potrebbero essere presenti unità meno limitate nei calcoli in DP e quindi avere riduzioni di prestazioni meno marcate.
Nelle unità SIMD non limitate da complicazioni circuitali come quelle del Cell (es. le unità SSE) le prestazioni eoriche dovrebbero diminuire del 50% in caso di utilizzo della DP rispetto alla SP.

Dott.Wisem
21-11-2006, 16:35
Solo per quelle del Cell, perchè hanno una struttura peculiare. Ciò non toglie che in future versioni potenziate di questa CPU potrebbero essere presenti unità meno limitate nei calcoli in DP e quindi avere riduzioni di prestazioni meno marcate.
Nelle unità SIMD non limitate da complicazioni circuitali come quelle del Cell (es. le unità SSE) le prestazioni eoriche dovrebbero diminuire del 50% in caso di utilizzo della DP rispetto alla SP.Grazie delle info. Comunque, effettivamente, in un videogioco, nell'ambito di calcoli poligonali o relativi alla fisica, 64bit di precisione in virgola mobile al momento non sono necessari. Anche le unità FPU presenti nelle unità di vertex shading delle GPU, infatti, sono a 32bit.