View Full Version : Roadrunner: supercomputer da oltre un petaFLOP al secondo
Redazione di Hardware Upg
09-06-2008, 15:51
Link alla notizia: http://www.hwupgrade.it/news/business/roadrunner-supercomputer-da-oltre-un-petaflop-al-secondo_25575.html
Installato negli Stati Uniti un nuovo supercomputer basato su processori Cell, in grado di superare il petaFLOP di potenza computazionale
Click sul link per visualizzare la notizia.
3 megawatt sono un sacco e lo sono anche 133 milioni di dollari, speriamo venga usato più per usi scientifici che militari!
Si e poi venne Willy il Coyote :D
Alucard88
09-06-2008, 16:11
Ecco un pc x Crysis al max!!
max@nikon
09-06-2008, 16:19
Uff!
Questi fanciulli ed ex-fanciulli con questa battuta di Crysis....
Ma non vi sembra una battuta da Prete all'Oratorio?
Mha...
Ecco un pc x Crysis al max!!
ma bastaaaaaaaaaaaaaaaaaaa
topo loco
09-06-2008, 16:27
Ok ecco un pc per far girare decentemente l'algoritmo di decrittazione che avevo in mente per il viregene ;).
Vedi che si abbassono i tempi di calcolo di un cifrario di cesare.
come mai qui non ci sono tutti quegli "idioti" che trollano sparando che era meglio fare tutto con BOINC?
oi dove siete finiti? solo se l'enea fa un supercmputer nuovo non va bene?
topo loco
09-06-2008, 16:40
RoadRunner Bibip!!!
Ecco un pc x Crysis al max!!
Servirebbe una scheda video per quello...
Che bestia accipicchia :sofico:
Ormai i processori nativamente grafici si pappano i processori standard, vedi anche il progetto FASTRA (http://fastra.ua.ac.be/en/index.html)
pieraptor
09-06-2008, 16:46
ma cosa ci sarà mai da elaborare per spendere tutti quei quattrini!
per usi scentifici?
... con tutto quello che costa e consuma, solo con un'altra guerra si può ripagare ... IRAN sei avvisato!
cià
P.
3 megawatt sono un sacco
Non sono molti relativamente alla potenza di elaborazione. Il Blue Gene consuma 2,9 MW nella configurazione a 1 PF (qui (http://www-03.ibm.com/systems/deepcomputing/bluegene/bgcomparison.html)).
Il progetto era stato annunciato quasi due anni fa. Finalmente è stato completato :D
gabi.2437
09-06-2008, 17:07
Quindi è questo ora il più potente supercomputer...prende il posto del blue gene nella classifica al primo posto!
E cmq BOINC fa più di 1 petaflop (anche se non c'entra molto)
beh sicuramente potranno giocare con i titoli più recenti per qualche anno :D
salvodel
09-06-2008, 17:17
Correggetemi se sbaglio
(116640 core-(7 core x 12960 processori Cell)/2=25920
o 12960 se sono quad core
Fanno qualche conto pure loro o servono solamente per gestire la bestia?
marko.fatto
09-06-2008, 17:20
Correggetemi se sbaglio
(116640 core-(7 core x 12960 processori Cell)/2=25920
o 12960 se sono quad core
Fanno qualche conto pure loro o servono solamente per gestire la bestia?
:stordita:
I processori Cell agiscono come se fossero una sorta di "acceleratori" per alcune porzioni di calcolo.
beh sicuramente potranno giocare con i titoli più recenti per qualche anno :D
eccone un'altro..
guarda che non c'è nemmeno una scheda video in tutto il sistema...
con questa bestia potrenno finalmente simulare i comportamenti climatici della terra in funzione ai cambiamenti solari in pochi giorni o al massimo in una settimana senza dover aspettare mesi.
è solo uno dei compiti che gli si potrebbe far eseguire...
un'altro potrebbe essere la simulazione di catastrofi, mi ricordo che quando hanno simulato al computer l'esplosione del monte Sant Elena in america (non mi ricordo come si scrive) con i super computer a disposizione del cern ci hanno messo circa 3 settimane a fare tutti i calcoli di modellizzazione.
se poi vogliamo andare in campo militare si può sempre vedere gli effetti di una esplosione di una testata nucleare, o anche lo studio della propagazione di una epidemia causata da un'attacco biologico.
gli usi sono infiniti.
se penso che circa 1 mese fa, per simulare al pc (3 pc con Q6700, 4 GB di ram, ed un collegamento Lan Gigabit) il comportamento di un provino metallico sottoposto a pressatura con un dettaglio dell'ordine di 0.1 micrometri, c'ho messo circa 5 giorni, questa è una cosa che si fa normalmente se serve sapere se un processo produttivo è efficace oppure no. Quindi in ambito di ricerca e sviluppo i supercomputer servono e come se servono.
principe081
09-06-2008, 18:04
eccone un'altro..
guarda che non c'è nemmeno una scheda video in tutto il sistema...
Neanche una scheda video? Nemmeno una S3 Trio 64? Una Savage Pro? Niente di niente? E come diavolo interagiscono co sto pc ? Comandi vocali? :D :asd:
Ok ecco un pc per far girare decentemente l'algoritmo di decrittazione che avevo in mente per il viregene ;).
Vedi che si abbassono i tempi di calcolo di un cifrario di cesare.
:confused: Che significa? :confused:
Lud von Pipper
09-06-2008, 18:25
si ma accipichia, un nome meno ridicolo per l'unità di calcolo no?!? :asd:
ok, il greco e gli acronimi ma a me Petaflop viene spontaneo tradurlo "Scoreggia-Fiasco"! :asd:
Paolo Malmsteen
09-06-2008, 18:26
@Ntropy
E' un programmatore quest'uomo!
Neanche una scheda video? Nemmeno una S3 Trio 64? Una Savage Pro? Niente di niente? E come diavolo interagiscono co sto pc ? Comandi vocali? :D :asd:
Beh il mio "piccolo" (minuscolo se rapportato a questo) Dell PowerEdge 1950 è stato attaccato ad un monitor e tastiera per due minuti circa e basta.... (per vedere se scheda video funzionava :D) il resto si fa via seriale, Serial On Lan, IPMI eccetera eccetera eccetera...
Figurati quando hai n alla n nodi... cos'è metti uno switch kvm???? :D
cia
marchigiano
09-06-2008, 22:07
1 petaflop lo fanno circa 750 schede grafiche 4870, non si potrebbero usare? oppure non sono adatte ai calcoli che devono fare?
Neanche una scheda video? Nemmeno una S3 Trio 64? Una Savage Pro? Niente di niente? E come diavolo interagiscono co sto pc ? Comandi vocali? :D :asd:
Ci si lavora solo da remoto.. :rolleyes:
1 petaflop lo fanno circa 750 schede grafiche 4870, non si potrebbero usare? oppure non sono adatte ai calcoli che devono fare?
Sono adattissime eccome. Guarda qui (http://fastra.ua.ac.be/en/index.html)
Mercuri0
10-06-2008, 07:11
1 petaflop lo fanno circa 750 schede grafiche 4870, non si potrebbero usare? oppure non sono adatte ai calcoli che devono fare?
Ci sono petaflop e petaflop. Cell è più general purpose di una GPU, e poi per un sistema in quella scala contano anche tanto come le CPU/GPU/etc comunicano tra loro.
Inoltre roadrunner è in costruzione da svariati anni ;)
(addirittura penso che usi molti Opteron dual core, ma potrebbe far l'upgrade ai Barcellona pian pianino)
Ci sono petaflop e petaflop. Cell è più general purpose di una GPU, e poi per un sistema in quella scala contano anche tanto come le CPU/GPU/etc comunicano tra loro.
Inoltre roadrunner è in costruzione da svariati anni ;)
(addirittura penso che usi molti Opteron dual core, ma potrebbe far l'upgrade ai Barcellona pian pianino)
Mi permetto di correggerti.
flop sta per floating point operation, e queste sono sempre operazioni su float 32bit. Nelle simulazioni, quasi la totalità di operazioni è di questo tipo, poi ci sono altri tipi di operazioni per le quali appunto hanno messo gli Opteron.
Per inciso, le gpu hanno praticamente solo unità floating point, per l'elaborazione grafica
come mai qui non ci sono tutti quegli "idioti" che trollano sparando che era meglio fare tutto con BOINC?
oi dove siete finiti? solo se l'enea fa un supercmputer nuovo non va bene?
No troll pls
Boinc è ottimo come investimento (anche come costi) nel solo caso di processi divisibili in passi atomici con input e output molto ridotti rispetto alla mole di calcolo e senza grossi vincoli tra i vari "pacchetti atomici". Questo Supercomputer serve a un'altro genere di simulazioni o modelli (o non "atomizzabili", o con criticità sul tempo o con sistemi di miglioramento a controllo retroattivo). Non capisco la tua uscita
No troll pls
Boinc è ottimo come investimento (anche come costi) nel solo caso di processi divisibili in passi atomici con input e output molto ridotti rispetto alla mole di calcolo e senza grossi vincoli tra i vari "pacchetti atomici". Questo Supercomputer serve a un'altro genere di simulazioni o modelli (o non "atomizzabili", o con criticità sul tempo o con sistemi di miglioramento a controllo retroattivo). Non capisco la tua uscita
Verissimo. Non solo, i task del BOINC non sono adatti a girare su calcolatori paralleli, perchè programmati in modo completamente differente.
Quando avevo a disposizione il nostro mostriciattolo italiano, volevo fargli fare un po di BOINC tra le previsioni del tempo :p , ma non ci son riuscito
Downset88
10-06-2008, 10:35
Ma invece che costruire questi enormi supercomputer, non sarebbe meglio ottimizzare i già esistenti sistemi di calcolo distribuito come il progetto Folding@home, che tra l'altro dovrebbe aver già raggiunto la potenza di calcolo di 1PetaFLOP.
con questa bestia potrenno finalmente simulare i comportamenti climatici della terra in funzione ai cambiamenti solari in pochi giorni o al massimo in una settimana senza dover aspettare mesi.
è solo uno dei compiti che gli si potrebbe far eseguire...
....
se poi vogliamo andare in campo militare si può sempre vedere gli effetti di una esplosione di una testata nucleare, o anche lo studio della propagazione di una epidemia causata da un'attacco biologico.
Io propenderei proprio per questo, vista la collocazione della macchina (Los Alamos, DOE).
Tra l'altro nella classifica top500 vi sono parecchie macchine adibite a tale scopo, praticamente tutte quelle che presentano in qualche modo i nomi Los Alamos, Sandia, LLNL (si trova ancche come "Lawrence Livermore national laboratory" scritto per esteso).
Mi permetto di correggerti.
flop sta per floating point operation, e queste sono sempre operazioni su float 32bit.
Nel banchmark Linpack, usato per misurare le performance di tali macchine:
Mflop/s is a rate of execution, millions of floating point operations per second. Whenever this term is used it will refer to 64 bit floating point operations and the operations will be either addition or multiplication. Gflop/s refers to billions of floating point operations per second and Tflop/s refers to trillions of floating point operations per second.
Ma invece che costruire questi enormi supercomputer, non sarebbe meglio ottimizzare i già esistenti sistemi di calcolo distribuito come il progetto Folding@home, che tra l'altro dovrebbe aver già raggiunto la potenza di calcolo di 1PetaFLOP.
Dipende dalla tipologia dell'applicazione/i che dovranno eseguire, dipende dalla segretezza del compito a cui sono destinate ecc...
Ciao
Federico
flop sta per floating point operation, e queste sono sempre operazioni su float 32bit. Nelle simulazioni, quasi la totalità di operazioni è di questo tipo, poi ci sono altri tipi di operazioni per le quali appunto hanno messo gli Opteron.
Quando si parla di supercomputer, e in particolare delle prestazioni riportate dalla top500, si parla sempre di operazioni a 64 bit. Infatti i Cell di Roadrunner possono svolgere operazioni a 64 bit nelle SPU, ma hanno una potenza dimezzata rispetto ai Cell "classici".
La potenza dichiarata dovrebbe essere dovuta solo ai Cell, e dovrebbe essere di circa 1,6 PF teorici. Se i processori hanno una frequenza di 4 Ghz, questo significa 4 flops (2 ADD + 2 MUL) per clock e per SPU, quindi 128 Gflops per processore. Per il Cell a 32 bit erano stati dichiarati 256 Gflops a 4 GHz.
come mai qui non ci sono tutti quegli "idioti" che trollano sparando che era meglio fare tutto con BOINC?
oi dove siete finiti? solo se l'enea fa un supercmputer nuovo non va bene?
salve, sono uno di qugli "idioti" che credono in boinc...
mi sa che tu nn abbia idea di come funzioni boinc e di quale sia la sua "filosofia" altrimenti eviteresti di sparare commenti gratuiti e inutili ke nn servono a nessuno.
ti invito quindi ad istruirti prma di scrivere e a conoscerci meglio...
un saluto
da un idiota
Nel banchmark Linpack, usato per misurare le performance di tali macchine:
Mflop/s is a rate of execution, millions of floating point operations per second. Whenever this term is used it will refer to 64 bit floating point operations and the operations will be either addition or multiplication. Gflop/s refers to billions of floating point operations per second and Tflop/s refers to trillions of floating point operations per second.
Quando si parla di supercomputer, e in particolare delle prestazioni riportate dalla top500, si parla sempre di operazioni a 64 bit. Infatti i Cell di Roadrunner possono svolgere operazioni a 64 bit nelle SPU, ma hanno una potenza dimezzata rispetto ai Cell "classici".
La potenza dichiarata dovrebbe essere dovuta solo ai Cell, e dovrebbe essere di circa 1,6 PF teorici. Se i processori hanno una frequenza di 4 Ghz, questo significa 4 flops (2 ADD + 2 MUL) per clock e per SPU, quindi 128 Gflops per processore. Per il Cell a 32 bit erano stati dichiarati 256 Gflops a 4 GHz.
Ok, ho sbagliato, non sono 32bit ma 64.
Ma la mia osservazione rispondeva al "ci sono petaflops e petaflops": i petaflops sono sempre la stessa cosa.
E quando mi riferivo ad altre operazioni, intendevo, per esempio, le istruzioni condizionali.
Leggevo da qualche parte che per simulare in modo completo a livello molecolare il movimento di un fluido tipo l'acqua all'interno di un banale bicchiere, tenendo conto di tutte le variabili, rumore, attriti, variazione temperatura etc sui computer attuali servirebbe un tempo superiore alla durata stimata dell'universo :D
Ora non mi ricordo i dettagli di preciso, però è una cosa abbastanza curiosa..questi supercomputer, pur potentissimi, creano simulazioni attendibili ma all'interno di un sistema ancora molto semplificato.
Leggevo da qualche parte che per simulare in modo completo a livello molecolare il movimento di un fluido tipo l'acqua all'interno di un banale bicchiere, tenendo conto di tutte le variabili, rumore, attriti, variazione temperatura etc sui computer attuali servirebbe un tempo superiore alla durata stimata dell'universo :D
Ora non mi ricordo i dettagli di preciso, però è una cosa abbastanza curiosa..questi supercomputer, pur potentissimi, creano simulazioni attendibili ma all'interno di un sistema ancora molto semplificato.
In realtà, appunto, dipende dalla complessità del modello (che comporta ovviamente maggiore attendibilità).
Per avere un idea, piuttosto brevemente, per esempio per le simulazioni atmosferiche (previsioni del tempo):
- Si divide lo spazio di interesse (Italia per esempio) in tanti "cubi" di lato 10km per esempio.
- Ogni processore si prende una porzione di questi cubi
- Ogni cubo ha le sue variabili tipo temperatura, pressione, umidità (rilevate)
- Il programma di simulazione conosce le leggi termodinamiche, ed in base ai dati in input, fa evolvere il sistema.
Ora, se i cubi fossero di 1km di lato, la simulazione sarebbe più attendibile, ma con un tempo di calcolo 1000 volte superiore (molto + o - :D).
Nell'esempio che dici tu, a livello molecolare, tutte le variabili.. uuffffffff, appunto un tempo quasi infinito
Nell'esempio che dici tu, a livello molecolare, tutte le variabili.. uuffffffff, appunto un tempo quasi infinito
Infatti...avevo fatto questo esempio proprio per dare idea di come un sistema banale come un bicchiere d'acqua con cui interagiamo quotidianamente riempiendolo, bevendolo, versandolo etc, possa facilmente assorbire e rendere insufficiente tutta la potenza di calcolo di questi supercomputer.
Se pensiamo al bicchiere e al contempo ad atmosfera e chilometri di territorio in cui si effetuano previsioni meteo possiamo renderci conto di quante siano realmente le variabili in gioco!
:mc:
Il calssico "ti perdi in un bicchiere d'acqua" potremmo dirlo anche al Roadrunner :D
Pensiamo dunque a quanto sia ancora primordiale la fisica implementata nei videogame che a volte ci lascia cmq piacevolmente stupiti e sorpresi
paolotennisweb
10-06-2008, 22:31
che sistema operativo usano, unix?
che sistema operativo usano, unix?
Windows 98 :D
Scherzi a parte, usano Red Hat.
demonbl@ck
01-07-2008, 21:52
Windows 98 :D
Giammai, Windows 98SE :asd:
comunque 1 PETAFLOP per un singolo supercomputer è una potenza impressionante... :eek:
Bell'articolo che tratta l'intelligenza uomo-macchina:
L'uomo è il punto più alto della fenomenologia universale o forse è concepibile qualcosa che ci superi? Il nostro noumeno è alla base di tutte le cose o possono esistere cose superiori a noi? Già abbiamo affrontato l'argomento e l'abbiamo demonizzato abbastanza, perchè i transumanisti, come Odifreddi, prevedono che sarà la macchina e non l'uomo. Quindi l'universo non era fatto per noi; e allora, ancora una volta chi siamo? Adesso con molta probabilità le macchine ragionano più velocemente di noi; non con la nostra stessa struttura, quindi ancora come macchine; ma ragionano più velocemente. se il cervello umano è in grado di svolgere mille miliardi di operazioni al secondo, Roadrunner IBM ne ha svolte un milione di miliardi.
Il sistema Roadrunner, dotato di 80 terabyte di memoria, è alloggiato in 288 rack IBM BladeCenter®, ciascuno delle dimensioni di un frigorifero industriale, e occupa quindi una superficie di circa 577 metri quadri. Roadrunner usa Linux. L'animale pesa più di 226.000 chili.
Riguardo al problema della coscienza di un computer è un discorso che ricade nell'ambito del teorema di turner e del solipsismo di Cartesio. Se non posso dimostrare che il mio amico Gianni esiste o sia una creazione del mio cervello, nemmeno lo posso fare col suo computer, quindi in linea di massima chi scrive è l'unica creatura dotata di coscienza del mondo. Il problema dunque è mal formulato; più che altro dobbiamo preoccuparci della loro intelligenza, perchè già sono nati dei virus che simulano molto bene creature intelligenti; questi infatti hanno avuto a disposizione milioni di computer per calcolare la loro capacità di rielaborarsi. Insomma si tratta di un problema di forma, non di sostanza. Per quello che posso dire io che vedo solo me stesso, il computer ha le prestazioni del mio amico Gianni in capacità di calcolo.
Roadrunner lavora a velocità superiori a un petaflop – un milione di miliardi di calcoli al secondo - ovvero un quadrilione di calcoli al secondo. Negli ultimi 10 anni la potenza dei supercomputer è aumentata di circa 1.000 volte.
Roadrunner è utilizzato per svolgere calcoli di astronautica, genoma umano e cambiamenti climatici e per adesso ragiona ancora come una macchina e simulare test nucleari. L'IBM titola "All’intera popolazione presente sulla terra, circa sei miliardi - supponendo che ciascuno di noi azioni un computer portatile alla velocità di un secondo per calcolo - occorrerebbero più di 46 anni per fare ciò che Roadrunner è in grado di fare in un giorno."
La copia del cervello umano invece è fatta con la tecnologia BLU Gene IBM che è il secondo supercomputer in classifica.
Come si chiamava, quel film... ? Ah, "Tron"! Ricordo che a cinque anni rischiavo di farmela addosso. Chiaramente tengo aggiornati sul'argomento.
http://redacon.radionova.it/index2.php?/leggi_news.php?id=7386&origin=N&ogg=notizie&pag_prox=1
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.