Un supercomputer "Fermi" per l'Oak Ridge National Lab

Un supercomputer "Fermi" per l'Oak Ridge National Lab

La nuova architettura GPU annunciata da NVIDIA sarà impiegata per la produzione di un sistema supercomputer a scopi di ricerca scientifica

di Andrea Bai pubblicata il , alle 05:09 nel canale Sistemi
NVIDIA
 

La GPU non è più solamente uno strumento di gioco. E' il messaggio, estremamente chiaro, che emerge da questa GPU Technology Conference ogranizzata da NVIDIA nella cornice del Fairmont Hotel di San Jose, California.

La computazione tramite GPU sta assumendo proporzioni sempre più considerevoli, basti pensare all'affluenza di ben 15 mila sviluppatori all'evento, che testimonia come l'attività intorno a questo nuovo ambito della programmazione sia particolarmente vivace. L'annuncio della nuova architettura "Fermi" è una nuova conferma di questo trend: NVIDIA, pur mantenendo il focus sul visual computing e l'entertainment in senso generico, ha voluto progettare da zero una GPU in grado di supportare il GPU computing.

Ad ulteriore conferma del mutamento dello scenario tecnologico relativo al mondo delle GPU vi è l'annuncio dell'Oak Ridge National Laboratory, importante realtà USA che opera nel campo della ricerca scientifica, che ha illustrato i piani per la realizzazione di un nuovo supercomputer che impiegherà la prossima generazione di architettura NVIDIA, Fermi. Il supercomputer sarà utilizzato per la ricerca in ambiti energetici e climatici e sarà capace di un livello prestazionale dieci volte superiore al più veloce supercomputer attualmente esistente.

Jeff Nichols, ORNL associate lab director for Computing and Computational Sciences, ha dichiarato: "E' la prima arichitettura di co-processing che Oak Ridge ha sviluppato per la scienza, e siamo molto entusiasti per le opportunità che crea per risolvere le sfide scientifiche. Con l'aiuto della tecnologia NVIDIA, Oak Ridge si propone di creare una piattaforma di computazione di livello exascale nel giro di deci anni".

Ma l'annuncio dell'ORLN non finisce qui: nel prossimo futuro verrà istituito l'Hybrid Multicore Consortium con l'obiettivo di lavorare a stretto contatto con gli sviluppatori dei principali programmi scientifici per preparare questi applicativi ad essere eseguiti sulla prossima generazione di supercomputer costruiti utilizzando le GPU.

Bill Dally, chief scientist per NVIDIA, ha dichiarato: "Le prime due generazioni dell'architettura CUDA GPU hanno permesso ad NVIDIA di compiere piccole incursioni nel campo della computazione scientifica, dimostrando la capacità di offrire consistenti incrementi prestazionali in una vasta gamma di applicazioni. L'architettura Fermi è un vero motore di scienza e con il supporto di realtà nazionali come l'ORLN, le possibilità sono infinite".

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

17 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
nexso01 Ottobre 2009, 06:10 #1
Molto interessante. Spero soprattutto nella ricerca contro il cancro (Folding@Home).
soulinafishbowl01 Ottobre 2009, 09:50 #2
Originariamente inviato da: nexso
Molto interessante. Spero soprattutto nella ricerca contro il cancro (Folding@Home).


NO.
"quellochevuoi@home" sono programmi quasi esclusivamente seriali, in grado di fare un gran numero di volte un piccolo lavoretto. E i vari piccoli lavoretti non sono dipendenti l'uno dall'altro.

Un supercomputer come quello dell'articolo viene sfruttato per far girare programmi massivamente paralleli. Per esempio programmi che necesitano di 1000 o piu' processori per volta. In questo caso ogni processore si occupa di un piccolo pezzo del calcolo, e dunque la velocita' di comunicazione e' vitale.

Terra-terra: @home e' come se tu masterizzassi 4 DVD su 4 computer diversi, per far prima. A OakRidge, e' come se usassero 4 processori per far funzionare photoshop piu' rapidamente.

PS: ovviamente puoi far girare @home su un supercomputer. Solo che non e' quello il suo scopo.
Adesso il supercomputer piu' potente a Oak Ridge e' un Cray. E usa processori AMD, esattamente gli stessi che puoi comprarti tu sotto casa.
Il "plus" di tale macchina non e' di avere un fottio di CPU, quanto quello di avere un'architettura, un ecosistema, tutto intorno per ottimizzare la capacita' di operare in parallelo. Questo significa per esempio schede di rete e connessioni particolari (e costose). E software per gestire tutto cio'. Se tu utilizzi i singoli processori in maniera individuale, non sfrutteresti questo "plus".
E allora ti basterebbero mille cpu dello stesso tipo ma su schede normali, collegate con LAN normali, etc.
E costerebbe molto molto meno.
Saiot01 Ottobre 2009, 13:50 #3

_

secondo quanto scritto qui http://www.top500.org/lists/2009/06 il + potente attualmente è un ibm roadrunner, correggimi se sbaglio (forse è un link vecchio)
lucusta01 Ottobre 2009, 13:50 #4
..."Il supercomputer sarà utilizzato per la ricerca in ambiti energetici e climatici e sarà capace di un livello prestazionale dieci volte superiore al più veloce supercomputer attualmente esistente."...

emm, verrebbe da suggerirgli che se cercano meglio trovano qualcosa di piu' parco di un chip da 200W l'uno di consumo.. se ne metti 2 che insieme consumano meno di uno solo, in un clustrer cosa cambia??

... e' solo una battuta...

sto' cuda pero' interessa sempre di piu', non e' vero?
soulinafishbowl01 Ottobre 2009, 14:35 #5
Originariamente inviato da: soulinafishbowl
Adesso il supercomputer piu' potente a Oak Ridge e' un Cray. E usa processori AMD...

Originariamente inviato da: Saiot
secondo quanto scritto qui http://www.top500.org/lists/2009/06 il + potente attualmente è un ibm roadrunner, correggimi se sbaglio (forse è un link vecchio)


No, non sbagli. Il "piu' potente a Oak Ridge" e' un Cray. Il "piu' potente" e' un IBM. Abbiamo ragione entrambi

Io volevo solo far capire che per fare un supercomputer non servono superprocessori, ma conta tutta l'architettura del sistema.
Itacla02 Ottobre 2009, 00:52 #6
ma a consumi/temperature come stiamo messi con questo Fermi?
Perchè quando si ragiona a certi livelli diventano parametri fondamentali questi..
simonk02 Ottobre 2009, 17:38 #7
Originariamente inviato da: Itacla
ma a consumi/temperature come stiamo messi con questo Fermi?
Perchè quando si ragiona a certi livelli diventano parametri fondamentali questi..

Con Nvidia non è mai sorto e non sorgerà mai un problema di temperature e consumi: le loro schede sono create su QUELLA base. Mentre quelle ATI sono create solo sulla potenza, ma non su i consumi o la temperatura di lavoro. Potrei scommettere un centone che le nuove GT300 consumeranno sì più delle GT200 ma meno delle nuove ATI HD 5800. Nvidia è basata su varie tecnologie che puntano ad un acquisto inizialmente di prezzo alto e dopodiché un consumo molto basso con una validissima garanzia che ti dà la temperatura a cui opera la scheda. Ati invece, e questo E' un dato di fatto, punta più su un acquisito iniziale a prezzo stracciato, ma un consumo energetico elevatissimo e delle temperature ai limiti del normale quando è in funzione. Meglio spendere 400 € adesso e pagare 5 euro al mese, o spendere 120 € adesso e pagare poi 50 euro al mese? C'é una differenza...
!fazz02 Ottobre 2009, 17:50 #8
Originariamente inviato da: simonk
Con Nvidia non è mai sorto e non sorgerà mai un problema di temperature e consumi: le loro schede sono create su QUELLA base. Mentre quelle ATI sono create solo sulla potenza, ma non su i consumi o la temperatura di lavoro. Potrei scommettere un centone che le nuove GT300 consumeranno sì più delle GT200 ma meno delle nuove ATI HD 5800. Nvidia è basata su varie tecnologie che puntano ad un acquisto inizialmente di prezzo alto e dopodiché un consumo molto basso con una validissima garanzia che ti dà la temperatura a cui opera la scheda. Ati invece, e questo E' un dato di fatto, punta più su un acquisito iniziale a prezzo stracciato, ma un consumo energetico elevatissimo e delle temperature ai limiti del normale quando è in funzione. Meglio spendere 400 € adesso e pagare 5 euro al mese, o spendere 120 € adesso e pagare poi 50 euro al mese? C'é una differenza...


oddio il tuo post è parecchio tendenzioso, e parecchio di parte comunque che è l'esatto contrario

Link ad immagine (click per visualizzarla)

come puoi vedere ati ha sviluppato una scheda che nonostante sia nettamente più veloce della precedente serie consuma 40w in meno che inoltre consuma 100w in meno rispetto all'nvidia di pari potenza, alla faccia dell'ottimizzazione del risparmio di nvidia che [U]attualmente [/U] ha una scheda che a parità di prestazioni consuma il doppio
simonk02 Ottobre 2009, 20:59 #9
Originariamente inviato da: !fazz]
oddio il tuo post è
attualmente [/U] ha una scheda che a parità di prestazioni consuma il doppio

Ah, se lo dici tu da un immagine presa da un certo sito, allora mi posso fidare cecamente

Mio cugino ha dovuto prendere un alimentatore da 900 W perché quello da 720 W non bastava: aveva un'ati HD 4870... io ho ancora l'alimentatore da 720 W e uso la scheda Nvidia GeForce 9800 GX2: ha le stesse prestazioni del computer di mio cugino nei più famosi giochi, anche perché l'importanza è che il valore di FPS sia superiore a 60 (giusto per paranoia) e la differenza tra la mia scheda e quella di mio cugino era in 5-6 FPS (contando che il resto è praticamente uguale al mio computer, dato che glielo consigliati io i componenti.. apparte per l'errore di avergli detto di prendere quella scheda, a quest'ora se aveva un Nvidia sarebbe bastato l'alimentatore da 720 e non avrebbe speso 150 euro per uno nuovo!)
DukeIT02 Ottobre 2009, 21:10 #10
Originariamente inviato da: simonk
Ah, se lo dici tu da un immagine presa da un certo sito, allora mi posso fidare cecamente

Mio cugino ha dovuto prendere un alimentatore da 900 W perché quello da 720 W non bastava: aveva un'ati HD 4870... io ho ancora l'alimentatore da 720 W e uso la scheda Nvidia GeForce 9800 GX2: ha le stesse prestazioni del computer di mio cugino nei più famosi giochi, anche perché l'importanza è che il valore di FPS sia superiore a 60 (giusto per paranoia) e la differenza tra la mia scheda e quella di mio cugino era in 5-6 FPS (contando che il resto è praticamente uguale al mio computer, dato che glielo consigliati io i componenti.. apparte per l'errore di avergli detto di prendere quella scheda, a quest'ora se aveva un Nvidia sarebbe bastato l'alimentatore da 720 e non avrebbe speso 150 euro per uno nuovo!)
Io ho una HD4870 ed un alimentatore da 620W e non solo è sufficiente, ma è esagerato, basterebbe un buon alimentatore da 550W, ma anche da 450W potrebbe andare bene. Ovviamente parlo di alimentatori seri.

L'immagine della quale tu non ti fidi, è presa proprio dal test fatto in questo sito (e non mi pare che siano generalmente "teneri" con le ATI), ma ovviamente puoi mostrare tu un test più attendibile (magari non quello relativo al PC di tuo cugino ).
I test di tutti i siti dimostrano che le nuove VGA ATI (ed ovviamente stiamo parlando di HD5870/HD5850, non della serie HD48x0), nonostante l'aumento notevole di potenza, abbinino consumi notevolmente ridotti.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^