PDA

View Full Version : Nuovi record di velocità per il supercalcolatore BlueGene/L


D.O.S.
08-03-2007, 07:57
Il Dipartimento dell’Energia del National Nuclear Security Administration (NNSA) e IBM hanno annunciato che BlueGene/L (BG/L), il supercomputer più veloce del mondo, ha raggiunto un nuovo traguardo. Questo record mondiale per un’applicazione scientifica è stato raggiunto con una prestazione prolungata dei 207,3 trilioni di operazioni in virgola mobile al secondo (teraFLOPS) sul codice informatico “Qbox” per condurre simulazioni di ricerca di notevole importanza per la sicurezza nazionale.
Blue Gene/L è il supercomputer IBM che si trova presso il Lawrence Livermore National Laboratory della NNSA, il supercomputer più veloce del mondo da Top500 (www.top500.org), che viene utilizzato per condurre simulazioni relative alla scienza dei materiali per il programma Advanced Simulation and Computing (ASC) della NNSA: unisce il know-how informatico scientifico dei laboratori nazionali del NNSA di Los Alamos, Sandia e Lawrence Livermore. Le capacità di simulazione informatica sviluppate dal programma ASC consentono una gestione più precisa e più sicura delle armi nucleari della NNSA.

“È un importante passo avanti per la simulazione di armi nucleari predittive, che sono di vitale importanza per garantire la sicurezza e l’affidabilità dell’arsenale. Questi risultati confermano inoltre che l’architettura di BlueGene/L è scalabile con le applicazioni reali. Le performance del codice Qbox sono state rese possibili grazie alla partnership con gli ingegneri della IBM, che hanno contribuito all’ottimizzazione delle performance del codice sui processori 131,072 del supercomputer BG/L”, ha affermato Dimitri Kusnezov, capo del programma ASC del NNSA.

Il miglioramento delle prestazioni è dovuto in larga misura alle nuove librerie matematiche sviluppate dai ricercatori software di IBM che sfruttano al massimo l’architettura dual-core del supercomputer.

“Risultati di questa portata e importanza non possono essere ottenuti semplicemente da una singola persona o da un singolo gruppo”, ha affermato David Turek, vice president di Deep Computing presso IBM. “Solo attraverso un’innovazione collaborativa al pari di quella realizzata attraverso la nostra partnership con la National Nuclear Security Administration e il Lawrence Livermore National Laboratory è possibile superare gli attuali confini dell’informatica rispetto alla posizione che detengono oggi. Continueremo a lavorare insieme per anticipare la nostra missione condivisa come non è mai stato possibile prima”.

Qbox è un codice di dinamica molecolare ab - initio (FPMD) ideato per prevedere le proprietà dei metalli in condizioni di temperatura e di pressione estreme – un obiettivo di antica data per i ricercatori che si occupano di scienza dei materiali e di fisica delle alte energie e densità. I codici FPMD vengono utilizzati per simulazioni complesse a livello atomico in varie aree scientifiche, tra le quali figurano la metallurgia, la fisica dello stato solido, la chimica, la biologia e la nanotecnologia.
La “Q” in Qbox indica il “quanto”, un riferimento alle descrizioni del quanto-meccanico degli elettroni che rappresentano il centro di interesse principale di questo codice di simulazione. L’abilità di plasmare accuratamente le modifiche alla struttura elettronica degli atomi distingue i codici FPMD dai classici codici molecolari dinamici.

L’esecuzione del codice tridimensionale, studiando il modo in cui gli atomi di molibdeno (un metallo di transizione) si comportano sotto pressione, rappresenta solo una delle poche simulazioni di “scienza predittiva” che arrivano a raggiungere i 1000 atomi di molibdeno. Mentre i consueti calcoli di dinamica molecolare vengono generalmente eseguiti con miliardi di atomi perché le interazioni tra gli atomi sono relativamente facili da calcolare, le esecuzioni dei quanto consueti, molto complessi e precisi, sono stati finora limitati a circa 50 atomi.
È la differenza tra 50 e 1000 che consente di esplorare nuove classi di sistemi chimici utilizzando metodi di principi primi comprendenti ambienti eterogenei (tenendo conto delle interazioni tra molecole diverse) e la chimica estrema (compresi gli urti). Questo passo è importante per il programma di monitoraggio dell’arsenale nucleare della NNSA e ha inoltre implicazioni importanti per i sistemi biologici, tra i quali lo studio delle proteine.
http://img221.imageshack.us/img221/5899/meltcurvemx4.jpg (http://imageshack.us)
Le simulazioni predittive consentono ai ricercatori di comprendere la complessità del comportamento dei sistemi fisici, chimici e biologici nel corso del tempo, dove, in precedenza, era solo possibile ottenere foto ridotte in scala più piccola. La capacità di poter ricorrere alla scienza predittiva è importante per la missione di sicurezza nazionale del NNSA, dato che i suoi ricercatori cercano di comprendere in quale modo i materiali, all’interno delle armi nucleari, invecchiano e, in particolare, per quelle testate che hanno superato il periodo di vita designato. Le performance del codice Qbox, ideato in modo particolare per l’esecuzione su piattaforme di larga scala come il BG/L, ha implicazioni per una comunità di ricercatori più vasta e, probabilmente, consentirà lo sviluppo di nuovi materiali di interesse per molti settori.

“L’unione di questo codice con questo computer, entrambi risultato di una partnership tra ASC e IBM, ha implicazioni per un’ampia comunità di ricerca che vanno ben oltre la missione della scienza delle riserve di NNSA. Tali vantaggi derivati, spesso accompagnano sforzi programmatici mirati volti alla promozione della tecnologia. Si è trattato certamente di una realtà per la NASA negli anni del viaggio sulla luna ed è una realtà oggi”, ha affermato Kusnezov. “Il lavoro di un’architettura disruptiva per l’ASC porta a computer a basso costo, ma estremamente utili a vantaggio della nazione ben oltre la sicurezza nazionale”.

http://img216.imageshack.us/img216/3774/bluegenebigfy6.jpg (http://imageshack.us)

articolo in Inglese http://www.llnl.gov/pao/news/news_releases/2006/NR-06-06-07.html
articolo in Italiano http://www-03.ibm.com/press/it/it/pressrelease/19880.wss

razziadacqua
08-03-2007, 15:58
Alla faccia del bicarbonasto di sodio!

Ma perchè strumenti potentissimi come questi non vengono applicati per necessità,problemi ben più impellenti e ben più comuni quali un HIV?Fattori cancerogeni,migliorare resa energetica dei motori...boh.

A volte mi deprimo a vedere quanto ci impegniamo e spendiamo tanto in certe cose,mentre in altre....e poi abbiamo pure il coraggio di lamentarci -.-

D.O.S.
08-03-2007, 20:08
perché è di proprietà della National Nuclear Security Administration (NNSA)
quindi viene usato per ricerche nel campo della fisica :fagiano:
Non credo sia possibile usare il software Qbox per simulare enzimi virali : ci sono troppi atomi ed il massimo che si è riusciti ad ottenere è 1000 atomi ( per ora).
Però non è l'unico supercomputer di tipo BlueGene , e quindi non si esclude che vengano usati anche per altri compiti.

Giusnico
08-03-2007, 20:23
Un sistema del genere usato per la ricerca SETI sarebbe una bomba! :D

++CERO++
08-03-2007, 21:09
Giusto x capire, 280.6 teraflops a quanti PC corrispondono ? :D

allora, dal sito http://de.wikipedia.org/wiki/Floating_Point_Operations_Per_Second
dice che Pentium 4 SSE3, 3,6 GHz 14,4 Gflops

quindi 280.600 Gflops/14.4 Gflops = 20.000 PC ? :sofico:

++CERO++
08-03-2007, 21:27
Cmq questa corsa al Flops mi sembra abbastanza inutile, xchè è basata
su macchine multiprocessore, quindi la potenza di calcolo è direttamante
proporzionale alle CPU utilizzate.
Inoltre su queste macchine conta moltissimo l'achitettura e il tipo di
algoritmo usato, che deve essere scritto apposta.
Magari su questi supercomputer il windows gira più lento che in un veccho
P4 a 2.4 GHz :asd:

Secondo mè sarebbe meglio puntare tutto sul record di velocità
della singola CPU/FPU/GPU, ma quì il discorso và a finire
sull' archittettura dei processori e sul fossilizzato mondo degli 8086 like ... :D

stbarlet
08-03-2007, 21:34
Cmq questa corsa al Flops mi sembra abbastanza inutile, xchè è basata
su macchine multiprocessore, quindi la potenza di calcolo è direttamante
proporzionale alle CPU utilizzate.
Inoltre su queste macchine conta moltissimo l'achitettura e il tipo di
algoritmo usato, che deve essere scritto apposta.
Magari su questi supercomputer il windows gira più lento che in un veccho
P4 a 2.4 GHz :asd:

Secondo mè sarebbe meglio puntare tutto sul record di velocità
della singola CPU/FPU/GPU, ma quì il discorso và a finire
sull' archittettura dei processori e sul fossilizzato mondo degli 8086 like ... :D





esatto, sono cpu con una architettura particolarissima.. vedi ad esempio Cell che sulla PS3 doveva fare tutto e anche di piú e per l`alta specializzazione del core centrale e soprattutto delle spe é stato relegto a fare solo da "cpu"

D.O.S.
08-03-2007, 22:05
Giusto x capire, 280.6 teraflops a quanti PC corrispondono ? :D

allora, dal sito http://de.wikipedia.org/wiki/Floating_Point_Operations_Per_Second
dice che Pentium 4 SSE3, 3,6 GHz 14,4 Gflops

quindi 280.600 Gflops/14.4 Gflops = 20.000 PC ? :sofico:

1 teraflop/secondo = 1000 miliardi di operazioni al secondo
280.6 teraplop/s = 280600 miliardi di operazioni al secondo
1 Core 2 Extreme X6800 raggiunge una potenza teorica di 46,88 Gflop/s

quindi quel supercomputer ha una potenza di calcolo di 5985,5 processori Core 2 Extreme
in realtà fare un paragone è difficile perchè si tratta di una macchina creata mettendo insieme 131.072 processori
Power PC 440 a 700 Mhz accoppiati a 2 in nodi di calcolo , questi a loro volta sono collegati fra loro
con struttura toroidale 3D 32 x 32 x 64
i singoli nodo usano SuSE SLES 9 ( LINUX ) mentre la comunicazione fra i nodi è lasciata ad un sistema operativo
creato dalla IBM.
per ottenere una macchina simile dovresti creare un cluster di calcolo parallelo con 5985 PC con Processore Core 2 extreme
, usare una interfaccia di comunicazione fra i singoli computer molto veloce e poi ottimizzare il software per farlo girare
senza contare la memoria ram che è di ben 32 Tb anche se di tipo "lento" : DDR e i dischi fissi che arrivano a 806 Tb

i supercomputer BlueGene sono considerati economici perchè utilizzano componenti non molto costosi ( come appunto i Power PC )

Athlon
09-03-2007, 14:49
Ma perchè strumenti potentissimi come questi non vengono applicati per necessità,problemi ben più impellenti e ben più comuni quali un HIV?Fattori cancerogeni,migliorare resa energetica dei motori...boh.

;) perche' prima di far fare dei calcoli ad un computer bisogna sapere QUALI calcoli fargli fare