GPU nei supercomputer per il 2012

GPU nei supercomputer per il 2012

David Kirk, chief scientist di NVIDIA, ipotizza uno scenario a breve nel quale le GPU verranno utilizzate nei più potenti supercomputer mondiali

di pubblicata il , alle 16:24 nel canale Schede Video
NVIDIA
 

David Kirk è uno di quei personaggi, all'interno dell'industria dei semiconduttori, che vale sempre la pena di ascoltare con attenzione quando fornisce il proprio punto di vista su quelle che saranno le evoluzioni future della tecnologia informatica.

Kirk ricopre la posizione di chief scientist all'interno di NVIDIA: è quindi responsabile di tutte quelle decisioni strategiche che riguardano le evoluzioni tecnologiche che verranno implementate nelle GPU NVIDIA che sono in questo momento in fase di sviluppo, e che non saranno concretizzate in prodotti in commercio prima di alcuni anni.

E' significativo ricordare un aneddoto su Kirk: quando deve incontrare la stampa per parlare di una nuova generazione di GPU appena presentata, Kirk deve spesso passare attraverso alcuni briefing con i responsabili PR di NVIDIA per aver ben chiaro quali siano le tecnologie annunciate in quella famiglia di prodotti dei quali andrà a parlare. Il rischio è quello di anticipare troppe tecnologie che vedranno la luce solo negli anni a venire, delle quali Kirk si sta invece occupando al momento.

Oltre che chief scientist di NVIDIA, Kirk è uno dei principali fautori delle elaborazioni GPGPU, General Purpose GPU, con le quali utilizzare la potenza elaborativa propria delle più recenti GPU apparse in commercio per calcoli di tipo general purpose, tipicamente affidati ai processori tradizionali ma che per il loro elevato parallelismo trovano nelle GPU una formidabile potenza di elaborazione.

In occasione del Games Developer Conference, evento tenutosi la scorsa settimana a San Francisco, David Kirk ha tenuto una sessione intitolata "The Future of 3D Graphics" nella quale ha analizzato alcune proprie previsioni sul ruolo che rivestiranno le GPU all'interno dei PC destinati ad elevate elaborazioni parallele nel corso dei prossimi anni. In questa occasione è emersa una importante previsione fatta da Kirk:

"By 2012, three of the top five supercomputers in the world will have graphics processors using parallel computing applications for computing”

E' evidente come il futuro delle elaborazioni con supercomputer richiederanno, secondo Kirk, un massiccio utilizzo di GPU per poter risolvere calcoli sempre più complessi nel più breve tempo possibile. Nel giro di 4 anni, quindi, la diffusione delle GPU per scenari di utilizzo general purpose sarà così elevata da aver definirivamente invaso un settore così di nicchia come quello dei supercomputer, composti tipicamente da cluster di processori Intel o AMD, o di soluzioni specialistiche, che operano in parallelo.

Ci si può domandare per quale motivo Kirk ritenga che non tutti i primi 5 supercomputer avranno, nel 2012, GPU al proprio interno per elaborazioni parallele, ma la risposta emerge in modo molto intuitivo pensando alle diversità di utilizzo di GPU e CPU in calcoli di tipo general purpose. Le GPU sono particolarmente adatte ad elaborazioni fortemente parallelizzate, scenario che può essere tipicamente riscontrato in elaborazioni di immagini mediche, analisi di pattern generici, ricerca di giacimenti petroliferi e di fonti naturali, analisi di modelli di rischio finanziari. Ben differenti le esigenze di scenari applicativi quali i database, la compressione dei dati, algoritmi ricorsivi e in generale elaborazioni nelle quali è richiesta una elevata logica di controllo del processo di calcolo: in questi casi una tradizionale CPU è l'architettura di riferimento e la GPU, per sua natura, non potrebbe permettere di ottenere risultati prestazionali interessanti.

Al momento attuale varie aziende stanno utilizzando GPU per elaborazioni GPGPU, ma per molti versi siamo ancora agli albori nell'adozione di queste tecnologie. NVIDIA ha sviluppato un proprio linguaggio di programmazione, chiamato CUDA, che con una sintassi di tipo C permette di programmare direttamente per eseguire calcoli via GPU. Gli sviluppatori di software possono pertanto adattare agevolmente proprio codice, o crearne di nuovo, in modo tale da poterlo eseguire direttamente via GPU, lasciando che il compito di conversione del linguaggio in istruzioni adatte alla GPU avvenga attraverso CUDA.

Il ruolo della componente software è fondamentale per una massiccia diffusione delle elaborazioni GPGPU: la potenza di calcolo delle moderne GPU deve infatti necessariamente venir sfruttata al meglio dal software, viceversa un approccio via CPU permette di giungere in ogni caso ad elaborare il risultato dell'operazione benché in tempi non brevi. Lo sforzo di ATI e NVIDIA deve quindi andare principalmente in questa direzione, coinvolgendo sia le istituzioni accademiche che le software house affinché programmare per elaborazioni parallele su GPU sia sempre più accessibile.

Se in questi ultimi anni abbiamo assistito a continue innovazioni nell'ambito dei processori, in termini di superiori funzionalità e potenze elaborative accresciute, è evidente come sia nel mondo delle GPU che il tasso di innovazione viaggi ai ritmi più sostenuti. ATI e NVIDIA continuano a presentare, ogni anno, architetture di GPU sempre più potenti e per le quali l'implementazione di funzionalità specifiche per le elaborazioni GPGPU diventerà un tema sempre più importante. Pensando a quali erano le architetture video disponibili 4 anni fa, è avvincente immaginare quali generazioni di GPU Kirk abbia in mente nel momento in cui elabora la propria previsione sul mondo dei supercomputer del 2012.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
appleroof27 Febbraio 2008, 17:07 #1
interessantissimo
frontino27 Febbraio 2008, 17:11 #2
Ma siamo sicuri che NVIDIA ci sarà ancora?
Io prevedo un ritorno del SOFTWARE RENDERING, esattamente come nelle produzioni cinematografiche.
bongo7427 Febbraio 2008, 17:16 #3
è chiaro, lavora per nvidia.
è come se io lavorassi per una industria di salami.
che ti vengo a dire che il salame ingrassa?

purtroppo la gente che spende +di 100 euro per una vga va ad ingrassare queste aziende che sono pappa e ciccia con i produttori di games.

allora ti produco un games pesantissimo così poi io gli vendo la scheda da 250euro....


Scioperissimo, comperate solo "value" nei supermercati da 6-9euro
aceto87627 Febbraio 2008, 17:16 #4
Originariamente inviato da: frontino
Ma siamo sicuri che NVIDIA ci sarà ancora?
Io prevedo un ritorno del SOFTWARE RENDERING, esattamente come nelle produzioni cinematografiche.


nVidia con Gelato può usare le sue GPU come GPGPU all'interno di un software renderer
Garz27 Febbraio 2008, 17:41 #5
@Bongo74: effettivamente il processori grafici corrono in certe applicazioni rispetto a quelli tradizionali..
dagon197827 Febbraio 2008, 18:04 #6
Originariamente inviato da: aceto876
nVidia con Gelato può usare le sue GPU come GPGPU all'interno di un software renderer


oltre a gelato nvidia ha comprato mental images, sviluppatrice di mental ray, che è un motore ibrido scanline-raytracing e in parte può già usare l'accelerazione hw delle gpu almeno per lo scanline
mental ray è già integrato in tutti i più importanti software 3d, per cui tra qualche mese secondo me è possibile che esca hw dedicato (schede quadro?) che permetteranno di usare cuda con mental ray
Jopi27 Febbraio 2008, 18:08 #7
Originariamente inviato da: bongo74
è chiaro, lavora per nvidia.
è come se io lavorassi per una industria di salami.
che ti vengo a dire che il salame ingrassa?

purtroppo la gente che spende +di 100 euro per una vga va ad ingrassare queste aziende che sono pappa e ciccia con i produttori di games.

allora ti produco un games pesantissimo così poi io gli vendo la scheda da 250euro....


Scioperissimo, comperate solo "value" nei supermercati da 6-9euro


si, come quelli che si comprano il SUV da 5000cc per ingrassare le compagnie petrolifere...

giocaci tu a cod4 o a QW con una "value" da 9 euro.
Faustinho DaSilva27 Febbraio 2008, 18:42 #8
Interessantissimo discorso, cuda potrebbe essere interessante(sperando che magari diventi uno standard)se no si corre il rischio che rimanga fine a se stesso. comunque in questo settore vedo meglio ati per la potenza di calcolo che riesce a mettere a disposizione attualmente con la sua architettura.
bola4627 Febbraio 2008, 18:51 #9
Il tenente Spock conferma le affermazioni rilasciate dal suo capitano
gabi.243727 Febbraio 2008, 20:50 #10
Beh già nel progetto Folding@home, che sfrutta, oltre al processore, per chi le ha, alcune schede video ATI, le schede video danno molti più flops dei processori...

E' anche vero che sono molto più limitate e lo staff del progetto deve tenerne conto, però in quello che possono fare, corrono e pure molto!

Se si specializza il tutto per l'elaborazione, i risultati sono ottimi

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^