PDA

View Full Version : Il supercomputer di Cray porta Opteron (e x86) oltre il petaflop


Redazione di Hardware Upg
13-11-2008, 14:26
Link alla notizia: http://www.hwupgrade.it/news/business/il-supercomputer-di-cray-porta-opteron-e-x86-oltre-il-petaflop_27162.html

Un aggiornamento del supercomputer Jaguar, basato su Opteron Quad Core, sembra poter insidiare la leadership di IBM Roadrunner

Click sul link per visualizzare la notizia.

gabi.2437
13-11-2008, 14:31
Decidersi nel titolo, tera o peta?

fritzen
13-11-2008, 14:33
ma per quali scopi li usano certi computer?

marchigiano
13-11-2008, 14:38
ma per quali scopi li usano certi computer?

crysis? :fagiano:

certo che se prendo 1000 hd4870 ottengo la stessa potenza di calcolo... questo fa pensare :D

kierlo
13-11-2008, 14:43
ma è petaflop...altrimenti basterebbe una ati hd 4850

Jabberwock
13-11-2008, 14:47
Decidersi nel titolo, tera o peta?

A me pare sia corretto, visto che si parla di primo computer Opteron (quindi esclusivamente x86) a superare la soglia del petaflop, quindi andare oltre il tera (non inteso come un tera, ma come unita' di misura)!
Sbaglio?

Charlie-Brown
13-11-2008, 14:48
ma per quali scopi li usano certi computer?

Tornei nazionali di American Army! Bush deve in un qualche modo passarsi le serate, no??? :asd: :sbonk:

Scherzi a parte, gli usi sono vari.
Dalle computazioni ingegneristiche per sistemi avanzati militari/aero spaziali alla criptazione/decript di dati, alle simulazioni statistiche di analisi finanziarie, e chi più ne ha ne metta, basta pagare...

Ombra77
13-11-2008, 14:56
ma per quali scopi li usano certi computer?

ad esempio per rompere più facilmente i sistemi di cifratura del nemico, e più in generale per decriptare facilmente e rapidamente algoritmi deboli e meno deboli.

Per realizzare modelli matematici di ogni tipo, come terresti per studi di previsioni metereologici, modelli fisici per calcolare milioni di variabili nell'interazione tra diversi oggetti nel mondo reale. Simulazioni di ogni tipo insomma, dove viene richiesto il calcolo di n variabili nell'unità di tempo.

actarus_77
13-11-2008, 15:16
Che brutto termine petaflop..... visto che c'erano potevano chiamarsi petaplop ....

Scusate l'OT, ma il termine proprio mi fa ridere...

Marcus Scaurus
13-11-2008, 15:18
Certo che fa pensare il fatto che il sistema ibrido opteron/cell necessita della metà dei processori per avere quasi gli stessi risultati del nuovo cray (circa 20000 contro i circa 45000 del cray).... :eek:

Silma
13-11-2008, 15:23
Ecco dove campa AMD :D

Comunque gli usi sono vastissimi, chi ne ha bisogno (università, centri di ricerca biologica, centri meteo, acceleratori di particelle) affitta determinate quantità di tempo del mainframe e manda i suoi dati, quelli sono computer che non riposano mai... e ci mancherebbe, con quello che costa ospitarli e mantenerli.

corradobernardi
13-11-2008, 15:32
già... RISC teraflop, 2352345464 opteron petaflop, core2 solo flop in questo caso :asd:

buziobello
13-11-2008, 15:44
A quando l'exaflop? :D

Cocco83
13-11-2008, 15:47
ASD 45000 opteron immagino di classe 8.... per 2000$ l'uno sono 90 milioni di $ in tasca ad AMD.... LOL non male come affare XD (sconti apparte)

lucalalo
13-11-2008, 15:52
scusate la mia ignoranza ok i processori per elaborare ingenti calcoli per progetti deciptazione ecc ma 362 TB di memoria e un file system di 10 PB a che servono?

Ntropy
13-11-2008, 15:54
ma per quali scopi li usano certi computer?

Servono servono tranquillo. Alcuni calcoli scientifici avrebbero bisogno anche di potenza superiore, esempi?
- previsioni meteo
- simulazioni di eventi fisici molto complessi
- codifica del genoma degli esseri viventi
- ecc. ecc.

X1l10on88
13-11-2008, 15:57
Siamo ancora lontani dal TRANSLTR di Crytpo :asd:

Jabberwock
13-11-2008, 16:11
scusate la mia ignoranza ok i processori per elaborare ingenti calcoli per progetti deciptazione ecc ma 362 TB di memoria e un file system di 10 PB a che servono?

I dati dovranno pur metterli da qualche parte mentre li elaborano, no? ;)

apocalypsestorm
13-11-2008, 16:29
magari li usano come sistema di elaborazione centrale di calcolo distribuito,
dove gli utenti collegati sono 10.000 e qunidi ogniuno ha assegnata 0.6 Cpu opteron.. :sbonk:

abla
13-11-2008, 16:29
scusate la mia ignoranza ok i processori per elaborare ingenti calcoli per progetti deciptazione ecc ma 362 TB di memoria e un file system di 10 PB a che servono?

2GB di memoria per core?
O magari vengono "distribuiti" in maniera non convenzionale rispetto a quelle che siamo abituati a vedere? (scusate il linguaggio, sono niubbo e curioso...)

bongo74
13-11-2008, 16:32
ma quanti megawatt ciuccia un affare del genere?

SwatMaster
13-11-2008, 16:57
Però con certe notizie mi fate schifare il PC nuovo! :stordita:

Lud von Pipper
13-11-2008, 17:27
mi chiedo però che tipo di incremento, in termini di risultati, si sia ottenuto negli ultimi anni passando a potenze tanto elevate. A parte magari il guadagno netto per un azienda che possiede il computer e lo affitta a "calcolo" e non a "Ore".
Abbiamo effettivamente aumentato la precisione delle analisi alle previsioni del tempo oppure si tratta semplicemente di un Achille informatico all'inseguimento di una tartaruga molto veloce?
Ovvio che visto il numero limitatissimo di computer di queste potenze si farà a cazzotti per accaparrarsene l'uso, ma tralasciando considerazioni meramente economiche?

pabloski
13-11-2008, 17:33
alla fine Cray ha fatto un bel flop con peto incorporato :D

no scherzi a parte, penso che sia un'interessante esercizio di stile, visto che consuma quanto un paese di 20.000 abitanti e scalda come l'Etna

cavasayan
13-11-2008, 17:55
mi chiedo però che tipo di incremento, in termini di risultati, si sia ottenuto negli ultimi anni passando a potenze tanto elevate. A parte magari il guadagno netto per un azienda che possiede il computer e lo affitta a "calcolo" e non a "Ore".
Abbiamo effettivamente aumentato la precisione delle analisi alle previsioni del tempo oppure si tratta semplicemente di un Achille informatico all'inseguimento di una tartaruga molto veloce?
Ovvio che visto il numero limitatissimo di computer di queste potenze si farà a cazzotti per accaparrarsene l'uso, ma tralasciando considerazioni meramente economiche?

Delle previsioni meteo non so...delle simulazioni FEM e CFD sicuramente si.

ottoking
13-11-2008, 17:57
mi chiedo però che tipo di incremento, in termini di risultati, si sia ottenuto negli ultimi anni passando a potenze tanto elevate. A parte magari il guadagno netto per un azienda che possiede il computer e lo affitta a "calcolo" e non a "Ore".
Abbiamo effettivamente aumentato la precisione delle analisi alle previsioni del tempo oppure si tratta semplicemente di un Achille informatico all'inseguimento di una tartaruga molto veloce?
Ovvio che visto il numero limitatissimo di computer di queste potenze si farà a cazzotti per accaparrarsene l'uso, ma tralasciando considerazioni meramente economiche?

Già me lo sono chiesto anche io, mi ricordo quando Cray raggiunse i 50 TFlops e ora un 1,3 PFlops :eek: :eek:
qualche miglioramento visibile dovrà pur esserci non mi sembra che le previsioni del tempo siano migliorate come accuratezza e i modelli finanziari-economici non sono di certo migliorati:rotfl: :rotfl: :rotfl:

PATOP
13-11-2008, 17:58
Originariamente inviato da: Marcus Scaurus
"Certo che fa pensare il fatto che il sistema ibrido opteron/cell necessita della metà dei processori per avere quasi gli stessi risultati del nuovo cray (circa 20000 contro i circa 45000 del cray).... "

Marcus....se conti i core in realtà la situazione è ancora peggiore per il CRAY!!!! Mentr IBM ha montato infatti processori , nel numero inferiore che indichi, di tipo DUAL CORE......quelli utilizzati dalla CRAY (45000 appunto) sono QUAD CORE!!!!!! quindi 45000x4=180.000 CORE COMPLESSIVI! NON MI SEMBRA CHE SIA UNA BUONA RESA COMPUTAZIONALE!!!

rosauro84
13-11-2008, 18:21
cos'è il petaflop...un lassativo???

Michelangelo_C
13-11-2008, 18:41
Non penso che si possa confrontare la macchina di Cray con quella IBM: il discorso dei core si inverte se consideriamo che ogni cell ne ha 8. Però sono del tutto diversi, ma è anche vero che fanno quasi tutta l'elaborazione... insomma non sono cose così facili da confrontare. L'unico vero parametro oggettivo che si può considerare è il rapporto performance/watt, o anche costo del sistema. Probabilmente questi fattori vanno a favore di IBM visto che ha comunque molti meno processori, ma comunque è da vedere; i parametri sono tanti (che ne so, l'ingombro, la dissipazione, la progettazione delle schede che ospitano i processori, lo sviluppo del software e le licenze che sono necessarie (dato che uno è x86 e l'altro no ci saranno sicuramente grosse differenze) ).

Ntropy
13-11-2008, 18:58
Delle previsioni meteo non so...delle simulazioni FEM e CFD sicuramente si.

La precisone delle previsioni meteo è aumentata parecchio negli ultimi anni e questo grazie a modelli matematici migliori e potenza di calcolo sempre maggiore.

FioriDelMale
13-11-2008, 19:16
Originariamente inviato da: Marcus Scaurus
"Certo che fa pensare il fatto che il sistema ibrido opteron/cell necessita della metà dei processori per avere quasi gli stessi risultati del nuovo cray (circa 20000 contro i circa 45000 del cray).... "

Marcus....se conti i core in realtà la situazione è ancora peggiore per il CRAY!!!! Mentr IBM ha montato infatti processori , nel numero inferiore che indichi, di tipo DUAL CORE......quelli utilizzati dalla CRAY (45000 appunto) sono QUAD CORE!!!!!! quindi 45000x4=180.000 CORE COMPLESSIVI! NON MI SEMBRA CHE SIA UNA BUONA RESA COMPUTAZIONALE!!!


scusa ma cell non aveva 32 core?

Nessuno '85
13-11-2008, 22:30
Secondo me una classifica esclusivamente di potenza non vuol dire niente, bisogna sempre tenere d'occhio il consumo, se uno fa un computer che è 10% più performante di un altro ma consuma il triplo non è mica un traguardo! Credo sia più utile una classifica che mostra le prestazioni rapportate al consumo, e credo che chi compra una macchina di questo tipo ha si bisogno di potenza ma farà bene i suoi conti perchè la bolletta della corrente può avere parecchi zeri con sistemi di questo tipo e il 10% di consumo in più o in meno sono soldoni!

Dumah Brazorf
13-11-2008, 22:32
Torna utile per analizzare i calcoli dell'LHC di Ginevra.

Gnubbolo
13-11-2008, 22:44
Secondo me una classifica esclusivamente di potenza non vuol dire niente, bisogna sempre tenere d'occhio il consumo, se uno fa un computer che è 10% più performante di un altro ma consuma il triplo non è mica un traguardo! Credo sia più utile una classifica che mostra le prestazioni rapportate al consumo, e credo che chi compra una macchina di questo tipo ha si bisogno di potenza ma farà bene i suoi conti perchè la bolletta della corrente può avere parecchi zeri con sistemi di questo tipo e il 10% di consumo in più o in meno sono soldoni!
secondo me a chi sfrutta gli elaboratori per lavoro gliene frega nulla dei consumi, quello che conta è il rapporto prestazioni/guadagni.
sarebbe una classifica diversa ma sicuramente migliore della tua.
la previsione di un tornado che puo' causare danni da miliardi di dollari è 100'000 volte più utile che risparmiare qualche dollaruccio in bolletta.

Lud von Pipper
14-11-2008, 01:57
la previsione di un tornado che puo' causare danni da miliardi di dollari è 100'000 volte più utile che risparmiare qualche dollaruccio in bolletta.
Si, ma la domanda, legittima è: Ci stanno riuscendo o si farà la fine della'analisi tellurica, che dopo decine di anni e miliardi di dollari investiti è stata abbandonata a livello di previsioni?
Ovvio: non parlo di sapere se la settimana prossima farà freddo o se il tempo sarà variable, ma di eventi improvvisi e violenti
L'HLT credo usi sistemi propri per analizzare i risultati invece che affitare a terze parti.

gabi.2437
14-11-2008, 07:47
Perchè ora sembra che sto supercomputer serve solo per le previsioni? :sofico: a parte che ultimamente sono più precise (e non mi riferisco al meteo in tv...), sto affare torna utile anche per fisica-chimica-biologia-medicina :O

!fazz
14-11-2008, 08:46
Originariamente inviato da: Marcus Scaurus
"Certo che fa pensare il fatto che il sistema ibrido opteron/cell necessita della metà dei processori per avere quasi gli stessi risultati del nuovo cray (circa 20000 contro i circa 45000 del cray).... "

Marcus....se conti i core in realtà la situazione è ancora peggiore per il CRAY!!!! Mentr IBM ha montato infatti processori , nel numero inferiore che indichi, di tipo DUAL CORE......quelli utilizzati dalla CRAY (45000 appunto) sono QUAD CORE!!!!!! quindi 45000x4=180.000 CORE COMPLESSIVI! NON MI SEMBRA CHE SIA UNA BUONA RESA COMPUTAZIONALE!!!

peccato che i cell hanno 8 core quindi il tuo ragionamento è leggermente errato

Marco71
14-11-2008, 09:16
..."affare" Gabi.2437 e tutti gli "affari" di cui non si conosce pubblicamente l'esistenza, tornano utili anche per compiti meno nobili che quelli scientifici di "scienza applicata alla risoluzione di problemi per l'umanità"...stanne sicuro...
Grazie.

Marco71.

Ntropy
14-11-2008, 10:35
Occhio ragazzi state paragonando architetture totalmente differenti, ragionare in termini di numeri di core quantità di cache ecc. ecc. paragonando RISC a x86 oppure a Cell è una cosa fuorviante. Infatti una cpu cell o risc ad un solo core potrebbe essere molto più performate di una cpu x86 dual-core o viceversa e vanno pertanto valutati diversamente.

Oltretutto credo che questi super centri di calcolo diciamo così (perchè certo non si può parlare di computer come lo intendiamo noi) vadano valutati nel rapporto Throughput/Energia consumata/Energia per il raffreddamento
e stiamo parlando di MegaWatt non qualche Kw in più.

Il discorso poi dell'utilizzo poi credo che gli ambiti applicativi sono praticamente infiniti, il meteo è solo una delle applicazioni che ci colpisce maggiromente perchè ci riguarda molto da vicino, ad esempio RoadRunner di Ibm è stato creato per simulare test nucleari ed è un bel vantaggio studiare il nucleare senza far esplodere niente ed attualmente risulta essere tra i migliori proprio per il rapporto calcoli/energia consumata.

flisi71
14-11-2008, 11:23
ma per quali scopi li usano certi computer?

Per svariati usi, come hanno già risposto in tanti.

Ma principalmente per un altro scopo: si noti che molti dei sistemi della classifica top500 portino la dizione DOE/NNSA e varie altre sigle quali LLNL (Lawrence Livermore) ovvero LANL (Los Alamos) e Sandia: sono utilizzati anche e sopratutto dai militari
NNSA= national nuclear security administration.

..."affare" Gabi.2437 e tutti gli "affari" di cui non si conosce pubblicamente l'esistenza, tornano utili anche per compiti meno nobili che quelli scientifici di "scienza applicata alla risoluzione di problemi per l'umanità"...stanne sicuro...
Grazie.

Marco71.

Esatto.


Ciao

Federico

ArteTetra
14-11-2008, 12:54
Ma principalmente per un altro scopo: si noti che molti dei sistemi della classifica top500 portino la dizione DOE/NNSA e varie altre sigle quali LLNL (Lawrence Livermore) ovvero LANL (Los Alamos) e Sandia: sono utilizzati anche e sopratutto dai militari
NNSA= national nuclear security administration.


Non bastavano gli aerei, gli elicotteri, i carri armati. Adesso l'esercito degli Stati Uniti deve anche consumare quantità abnormi di energia per giocare al computer.

baruk
14-11-2008, 13:29
ma per quali scopi li usano certi computer?

echelon

flisi71
14-11-2008, 13:48
Non bastavano gli aerei, gli elicotteri, i carri armati. Adesso l'esercito degli Stati Uniti deve anche consumare quantità abnormi di energia per giocare al computer.

La prima serie dei sistemi ASCII degli anni 90 è servita per la simulazione delle esplosioni nucleari senza necessità di sperimentazione "live" di ordigni di prova.
Allora, se non ricordo male, furono installati 3 sistemi sempre per conto del DOE ai Los Alamos Lab, al Sandia e anche al Livermore.


Ciao

Federico

apocalypsestorm
14-11-2008, 15:21
echelon
Secondo mè, la destinazione più naturale dei supercomputer è metterli in rete,
altro che calcoli scientifici.. :asd:

Immaginiamo Googgle che ogni minuto deve gestire le richieste di milioni di utenti
da tutto il mondo... oppure qualsiasi altro compito "collettivo" , come dorsali mondiali della rete WAN.. :)

Si capisce subito che 6000 CPU in questi casi sono una cifra assolutamente realistica ed utile..

Lud von Pipper
14-11-2008, 18:32
Perchè ora sembra che sto supercomputer serve solo per le previsioni? :sofico: a parte che ultimamente sono più precise (e non mi riferisco al meteo in tv...), sto affare torna utile anche per fisica-chimica-biologia-medicina :O
Non sto negando l'utilità dei supercomputer nella ricerca ma solo sottolineare quegli ambiti in cui "ottenere risultati in fretta" è molto più interessate che macinare molti dati contemporanemanete (calcolo concentrato vs calcolo distribuito)
Inutile dire che alcuni milioni di PS3 connessere in folding siano in termini di calcoli eseguiti per unità di tempo più efficaci e soprattutto gratuite, ma i calcoli sono dispersi e necessitano di tempo per essere riassemblati in un unco modello.
Le previsioni del tempo, d'altra parte, perdono di precisione a mano a mano che si restringe la finestra di tempo che analizzano, e quando una comagnia petrolifera paga per sapere se deve bloccare la produzione di petrolio nel golfo per l'arrivo di un possibile uragano, di solito tollera mal i falsi allarmi o l'incetrezza su tempi eccessivamente dilatati.Questi errori si riflettono in tempo reale sul costo del barile di petrolio e possono "bruciare" in poco tempo cifre superiori a quelle del valore del super computer stesso.
Questi mostri macina calcoli sono pochi e normalmente quasi sempre nelle mani di enti per le previsioni del tempo (oppure enti militari, ma con i tempi che corrono non è frequente).
Inoltre chi fornisce preisioni più precise e dettagliate di solito ruba commesse ai concorrenti, che per restare in affari devono rilanciare.