PDA

View Full Version : Escalation potenza GPU nel corso degli anni


s12a
11-07-2008, 12:38
Qualcuno ha un grafico o e` capace di crearne uno che mostri accuratamente la crescita di potenza di calcolo (in GFLOPS, ad esempio) delle GPU da 10-15 anni ad oggi? La mia impressione e` che qui l'aumento delle prestazioni sia di molto superiore a quella delle CPU, e conseguentemente all'andamento suggerito dalla "legge" di Moore. Considerando che fra non troppo tempo dovrebbe uscire il Larrabee della Intel che quanto a capacita` elaborativa (come GPGPU) dovrebbe sbaragliare la concorrenza, il futuro a medio termine (informatico), specie nell'ottica dei supercomputer, dei cluster o del calcolo distribuito, mi sembra quasi extraterrestre!

Mercuri0
11-07-2008, 16:38
Ho visto qualche slide qui e lì, ma se mi risparmi la fatica di andartele a cercare, ti faccio invece qualche considerazione:

- La legge di Moore non riguarda la potenza di calcolo ma il numero di transistor!
E mentre la legge di Moore funziona ancora alla grande, la potenza di calcolo nelle CPU non la sta più seguendo da qualche anno (dal 2001 circa in poi) perché la potenza di calcolo delle CPU è bloccata dalla potenza che devono dissipare :cry: Da qui la necessità di passare ai multicore, istruzioni specifiche come SSE, e altre amenità.

- Usandole le GPU al posto delle CPU per far conti, si crea "nel grafico" della potenza di calcolo, un gradino di 10-100x rispetto alle CPU.
L'evoluzione della potenza di calcolo della GPU rispetto a loro stesse è però legata alla legge di Moore nello stesso modo delle CPU. E presto sarà anch'essa bloccata dalla potenza da dissipare, mi sa.

- La potenza è nulla senza controllo (gh :D ). Infatti si parla di teraflops a iosa, ma gli utenti consumer ancora hanno visto solo i videogiochi, e anche quelli accademici non è che siano troppo oltre. Per programmare i many-core ci vogliono nuovi strumenti di programmazione. E sperare che quei teraflops teorici non diventino decine di gigaflops reali o peggio, come troppo spesso accade se si usa il GPGPU per l'algoritmo sbagliato.

- Non ci sono applicazioni sui PC che interessano gli utenti consumer per cui serva altra potenza di calcolo. Voglio dire: oggigiorno il programma che usa di più la CPU sui PC è il flash di Adobe... Per altri dispositivi elettronici (ultraportatili, telefonini) la musica è diversa e siamo in debito di potenza di calcolo.

- Con l'introduzione delle istruzioni AVX e SSE5 sui proci a fine 2010 magari si comincia a vedere qualcosa di interessante anche da quel lato.

postilla: la legge di Moore in pratica conferma che ancora si riesce a scalare il processo produttivo ;)

s12a
11-07-2008, 17:36
Ho capito, grazie per le delucidazioni :)

E` che ad ogni generazione di GPU, ultimamente distanziate l'una dall'altra di un'anno o meno, le prestazioni praticamente raddoppiano, e considerato che fra l'altro il loro sviluppo nella storia dell'informatica e` in termini assoluti piuttosto recente (e` praticamente iniziato con 3dfx e l'avvento dei giochi 3d dalla grafica accelerata) pensavo che si prospettassero larghi e veloci miglioramenti ancora per diverso tempo.

Quindi il limite e` la potenza dissipata? Quando le schede video arriveranno ad un punto critico (150-200w?) la ripida escalation delle potenze si fermera` o rallentera` come e` avvenuto per le CPU (oggi siamo a 1 TeraFLOPS, fra un anno saranno 2, e fra due?) ?

Quanto all'utilizzo di tutta questa potenza, io ho sempre in mente il calcolo distribuito a scopi scientifici, entro pochi anni avere qualche PetaFLOPS totali a disposizione potrebbe essere una bazzecola anche con un numero limitato di partecipanti dotati di potenti GPGPU... direi un salto notevole rispetto ad oggi. Gia` oggi con Folding@Home il 2.7% dei partecipanti attivi dotati di schede video adatte fornisce il 36.7% della potenza di calcolo totale!

Mercuri0
11-07-2008, 18:28
Beh ma la legge di Moore prevede ll raddoppio di transistor ogni 18 mesi... se corrispondesse anche al raddoppio della potenza di calcolo ci staresti dentro ;)


Quindi il limite e` la potenza dissipata? Quando le schede video arriveranno ad un punto critico (150-200w?) la ripida escalation delle potenze si fermera` o rallentera` come e` avvenuto per le CPU (oggi siamo a 1 TeraFLOPS, fra un anno saranno 2, e fra due?) ?
Già, il limite alla potenza di calcolo oggi è la potenza da dissipare. Un muro insormontabile, e al limite critico ci sono già arrivate, mi sa. :)

Dovranno migliorare il rapporto prestazioni/potenza, e la legge di Moore non aiuta.

A dire il vero il GT200 è anche limitato dall'area (fare un chip più grande 'un si può) ma questo è un problema che si risolve bene con i nuovi processi produttivi.

Sulla 4870x2 pubblicizzano 2.4 teraflops teorici. Ma i teraflops teorici non sono entusiasmanti, è quello che ci fai. E ancora si vede poco, e non si sa come questi "teorici" diventano "reali" nelle varie applicazioni.

Nelle applicazioni non adatte alle GPU, quei teraflops non valgono nulla :)