View Full Version : IBM presenta il nuovo supercomputer Blue Gene/Q
Redazione di Hardware Upg
18-11-2011, 10:29
Link alla notizia: http://www.businessmagazine.it/news/ibm-presenta-il-nuovo-supercomputer-blue-gene-q_39506.html
Big Blue presenta il nuovo supersistema della famiglia Blue Gene, attualmente il supersistema più efficiente con un rapporto di 2 gigaflop per watt
Click sul link per visualizzare la notizia.
piererentolo
18-11-2011, 11:56
Mi sono sempre chiesto in quanto tempo questi super elaboratori vengono raggiunti dai normali desktop, ad esempio un core i7 con HD6990 arriva ad eguagliare la potenza di calcolo di un supercomputer dell'anno 2000? Tra 10 anno avremo pc da 100 Petaflop in casa?
Attualmente a quanto arrivano?
EDIT:
Mi rispondo da solo, ero curioso ed ho trovato questa :P
http://www.neoteo.com/images/Cache/F29Bx500y500.jpg
coschizza
18-11-2011, 12:10
Mi sono sempre chiesto in quanto tempo questi super elaboratori vengono raggiunti dai normali desktop, ad esempio un core i7 con HD6990 arriva ad eguagliare la potenza di calcolo di un supercomputer dell'anno 2000? Tra 10 anno avremo pc da 100 Petaflop in casa?
Attualmente a quanto arrivano?
Difficile rispondere perche spesso si citano valori di Gflops o altro ma poi bisogna vedere a sosa si riferiscono. In particolare bisogna vedere che tipo di calcoli consideri perche ci sono quelli a precisione singola e quelli a doppia.
Quindi puoi avere una cpu che ha magari solo 100Gflops di potenza ma sia in singola che doppia e una gpu con magari 1Tflops di potenza dove pero la potenza in caso di calcoli "double precision" è persino inferiore a quella della cpu presa come riferimento.
In generale pero è come dici tu in 10 anni quella che era una farm di server (magari non quella enormi) è probbabilmente contenuta in un pc domestico di ultima generazione, ovviamente generalizzando perche poi bisogna vedere quanta ram avevano i server dischi rete ecc ecc ecc.
Fa ridere pero pensare che ti scrivo questo post da un pc che una volta come potenza sarebbe bastato per controllava la rete di un intero stato o un continente. Questo per dire di che spreco di potenza assistiamo oggi.
Mi sono sempre chiesto in quanto tempo questi super elaboratori vengono raggiunti dai normali desktop, ad esempio un core i7 con HD6990 arriva ad eguagliare la potenza di calcolo di un supercomputer dell'anno 2000? Tra 10 anno avremo pc da 100 Petaflop in casa?
Attualmente a quanto arrivano?
E tra 20....smartphone da 100 Petaflop. :asd:
vampirodolce1
18-11-2011, 14:49
In generale pero è come dici tu in 10 anni quella che era una farm di server (magari non quella enormi) è probbabilmente contenuta in un pc domestico di ultima generazione, ovviamente generalizzando perche poi bisogna vedere quanta ram avevano i server dischi rete ecc ecc ecc.
Fa ridere pero pensare che ti scrivo questo post da un pc che una volta come potenza sarebbe bastato per controllava la rete di un intero stato o un continente. Questo per dire di che spreco di potenza assistiamo oggi.Beh tu considera che meta' risorse dei Windows se ne vanno solo per visualizzare il desktop e se (come credo) sara' cosi' in futuro lo spreco sara' ancora maggiore.
Una volta, gia' ai tempi del DOS, si lavorava lo stesso, con programmini di pochi KB e senza musica o film, ma in una manciata di MB ci stava tutto DOS, tutto Windows, tutto Word, tutto Excel e avanzava spazio; il modo di lavorare era bruttino ma funzionava tutto con un hardware centinaia di volte meno potente di quello di oggi.
Se vado ancora piu' indietro, ricordo i primi computer su cui ho lavorato con programmi di videoscrittura (Wordstar), erano dei 286 senza hard disk, con solo floppy da 5,25", squallidissimi ma facevano il loro lavoro.
Quindi le vostre osservazioni sono senz'altro corrette.
Phantom II
18-11-2011, 14:55
Prodotto affascinante questo nuovo Blue Gene, i suoi ambiti d'impiego, invece, mi fanno cadere le braccia.
Pier2204
18-11-2011, 15:03
IBM installerà 96 rack di Blue Gene/Q all'inizio di dicembre. Il sistema sarà utilizzato per mantenere i deterrenti nucleari degli USA senza il bisogno di test reali
La prima applicazione di questi mostri è sempre in ambito Militare, che poi mi chiedo a cosa serve effettivamente, l'intero arsenale nucleare è sufficente per distruggere la terra 1000 volte, ...basta una volta sola..:rolleyes:
In ambito scientifico invece, mi chiedo se una tale potenza di calcolo sia sufficente per fare esperimenti di intelligenza artificiale...
Interessanti i core PowerPC A2 che, a quanto pare, è un processore in-order. Qui c'è qualche info in più:
- http://www.hotchips.org/uploads/archive22/HC22.23.310-Brown-PowerEN%20Presentation%2028July2010.pdf
- https://www.power.org/events/2010_ISSCC/Wire_Speed_Presentation_5.5_-_Final4.pdf
Volendo fare qualche calcolo:
- 20 PFLOPS / 96 Rack = ~208.33 TFLOP/rack
- 208.33 TFLOP / 1024 CPU = ~208.33 GFLOP/CPU
- 208.33 GFLOP / 16 core = ~ 13.021 GFLOP/core
IBM cita velocità di clock di circa 1.6 GHz; quindi, per mantenere i livelli di performance sopra indicati, ogni core dovrebbe avere la capacità di processare 8 valori floating-point in doppia precisione per clock. Immagino che questo venga fatto tramite unità vettoriali.
Curiosità: anche Sandy Bridge e Bulldozer possono processare 8 valori floating point in doppia precisione per clock (il primo ha 4 FPU con 2 unità AVX-256 ciascuna, il secondo 4 FPU con 4 unità AVX-128 con FMAC). Pagano però uno scotto sul numero di core totali (il processore IBM ne ha 16). Ovviamente la comparazione è solo per curiosità: i PowerPC A2 sono costruiti con finalità e compromessi ben differenti rispetto a quelli dei processori desktop.
Ciao. :)
trademark
18-11-2011, 18:24
salve a tutti,
si evolve tutto in maniera sempre più veloce, basta solo guardare cosa sa fare un telefono cellulare di oggi e pensare solo a pochi anni fa come erano i cellulari (e cosa sapevano fare)...
per vampirodolce1, non per fare il vecchio della situazione ma hai mai usato gli olivetti m24 o gli olivetti 8086?
"con solo floppy da 3,25" " penso ti riferissi a floppy da 5,25" anche se nei 286 erano già presenti quelli da 3,5"
saluti
xshodan
ma presumo che l'efficenza sia un attimino diversa.....sandy bridge e buldozer ( che nellla versione opteron 6200 ha anche esso 16 core) sono x86...........i processori power di IBM sono risc puri............credo che questo non sia proprio indifferente.........
xshodan
ma presumo che l'efficenza sia un attimino diversa.....sandy bridge e buldozer ( che nellla versione opteron 6200 ha anche esso 16 core) sono x86...........i processori power di IBM sono risc puri............credo che questo non sia proprio indifferente.........
Ciao,
premesso che il confronto con Sandy Bridge e Bulldozzer era, appunto, solo una curiosità, bisogna capire cosa si intende per "efficienza".
Se parliamo di efficienza come prestazioni per watt, il nuovo core PowerPC A2 è ottimo: supera di gran lunga quanto offerto da una CPU più "general-purpose". D'altro canto, in compiti particolarmente specifici, un processore vettoriale (come PowerXCell 8i o, addirittura, una scheda video tipo AMD 5/6000 e Nvidia Fermi) danno risultati ancora migliori. Dipende tutto dall'ambito di utilizzo...
Se parliamo di efficienza in codice con molti branch (come quello di un kernel e/o di tanti programmi normali) un processore X86 offre un rapporto prezzo/consumo/prestazioni davvero niente male, ma ovviamente questo non è questo il tipico ambito di utilizzo di un supercomputer... :D
Riguardo al RISC vs CISC, è difficile parlarne in poche righe. Se mi permetti una personale lettura, reputo che molte delle più affermate architetture, al giorno d'oggi, non siano né RISC né CISC pure, ma una via di mezzo. Processori RISC "puri e duri" praticamente non ne esistono in commercio, in quanto anche quelli attualmente marchiati RISC forniscono un set di istruzioni esteso (es: istruzioni vettoriali). Allo stesso modo, i CISC odierni non sono altro che nuclei POST-RISC con un decoder che trasla le istruzioni X86 in micro-operazioni RISC-like.
Comunque su quest'argomento siamo abbondantemente OT...
Ciao.
xshodan
per efficenza si intende rapporto performance/watt......i power di ibm , come gli ARM, a core RISC ottongono rapporti a valori talmente favorevoli da non poter essere confrontati con cpu x86.
Per quanto concerne il codice molto dipende anche dai compilatori utilizzati naturalmente........ma anche qui per un x86 la vedo parecchi dura.......l'architettura di questi processori Cisc x86 ( e' vero in realta' oramai ibridi) trova molta piu' difficolta a scalare ed all' aumentare del numero dei procesori in un sistema di grandi dimensione si ottiene via via sempre piu' core ma sempre piu' con minore efficenza in tutti i termini.
Se non ricordo male l'implementazione ibrida delle cpu x86 e' stata per prima implementata nell'architettura Kx di AMD , seguita poi anche da intel, proprio per cercare di ovviare a queste problematiche che le soluzioni a base CISC cominciavano a denotare e sarebbero state difficili da superare.
l'architettura di questi processori Cisc x86 ( e' vero in realta' oramai ibridi) trova molta piu' difficolta a scalare ed all' aumentare del numero dei procesori in un sistema di grandi dimensione si ottiene via via sempre piu' core ma sempre piu' con minore efficenza in tutti i termini.
Mica tanto, tanto e' vero che gli Xeon (e gli x86 in generale) sono i processori di gran lunga piu' usati nei supercomputer, vedi qui:
http://i.top500.org/stats
scegli "stats: processor generation"
Se non ricordo male l'implementazione ibrida delle cpu x86 e' stata per prima implementata nell'architettura Kx di AMD , seguita poi anche da intel, proprio per cercare di ovviare a queste problematiche che le soluzioni a base CISC cominciavano a denotare e sarebbero state difficili da superare.
La conversione CISC->RISC facilita la costruzione di processori superscalari e con pipeline profonde, ma non ha niente a che vedere con lo scalare del numero di core. Per quello contano l'architettura delle cache e della memoria, i protocolli di cache coherence eccetera.
Il parallelismo con il quale il sistema nervoso opera non si basa sul calcolo deterministico ma su quello analogico.
Non proprio, e' possibile simularlo con un computer standard ("deterministico") ma e' molto inefficiente a causa del diverso tipo di "architettura".
Cmq, se ti interessa l'argomento puoi dare un'occhiata qui:
http://www.stanford.edu/group/brainsinsilicon/
Stanno costruendo delle macchine dedicate, progettate ad-hoc, per fare simulazioni molto piu' veloci ed accurate.
xpleg
che i processori a base x86 siano i piu' utilizzati e duffusi credo oramai non ci sia ombra di dubbio e sia un dato inconfutabile.......ma questo non fa che rafforzare quanto menzionavo circa l'efficenza......se guardi la classifica in termini di potenza la stessa dovrebbe quindi essere maggirmente detenuta da x86 ma mi sembra invece che nonostante l'enorme utilizzo di questi processori non sia cosi' ( vedi appunto i problemi di scalabilita').
Per quanto concerne la conversioneCISC vs RISC da parte mia non ho detto che la cosa e' correlata alla scalabilita' ma a "molteplici problematiche che le soluzioni a base CISC cominciavano a denotare" sono quindi in sintonia anche con quanto riporti da parte tua.
vampirodolce1
19-11-2011, 13:56
per vampirodolce1, non per fare il vecchio della situazione ma hai mai usato gli olivetti m24 o gli olivetti 8086?
"con solo floppy da 3,25" " penso ti riferissi a floppy da 5,25" anche se nei 286 erano già presenti quelli da 3,5"
salutiSi', i floppy ovviamente erano da 5.25, ho corretto la svista.
Non ho mai usato gli olivetti m24 o 8086, come si lavorava su quei pc? La cosa mi incuriosisce parecchio.
xshodan
per efficenza si intende rapporto performance/watt......i power di ibm , come gli ARM, a core RISC ottongono rapporti a valori talmente favorevoli da non poter essere confrontati con cpu x86.
Per quanto concerne il codice molto dipende anche dai compilatori utilizzati naturalmente........ma anche qui per un x86 la vedo parecchi dura.......l'architettura di questi processori Cisc x86 ( e' vero in realta' oramai ibridi) trova molta piu' difficolta a scalare ed all' aumentare del numero dei procesori in un sistema di grandi dimensione si ottiene via via sempre piu' core ma sempre piu' con minore efficenza in tutti i termini.
Se non ricordo male l'implementazione ibrida delle cpu x86 e' stata per prima implementata nell'architettura Kx di AMD , seguita poi anche da intel, proprio per cercare di ovviare a queste problematiche che le soluzioni a base CISC cominciavano a denotare e sarebbero state difficili da superare.
Ciao,
il punto e' che, parlando di efficienza, dipende tutto dalla tipologia di applicazione utilizzata. Per esempio, in ambito HPC conta soprattutto il livello di prestazioni in virgola mobile e molto meno le prestazioni general purpose. Non a caso i core PowerPC A2 sono in-order.
Comunque le CPU x86 non sono affatto male né come efficienza né come potenza pura. Dai un'occhiata ai seguenti link:
- http://www.realworldtech.com/page.cfm?ArticleID=RWT090909050230&p=2
- http://www.realworldtech.com/page.cfm?ArticleID=RWT040511235825&p=2
A proposito, la prima CPU x86 a decodificare le istruzioni CISC in microistruzioni RISC e' stata l'AMD K5 ;)
Ciao.
xshodan
ho visto i links.......ma a mio avviso sono parecchio lacunosi o si voglia confrntare pere con mele...in un link viene riportato un confronto tra una serie di cpu e gpu tra l'altro non proprio recenti mentre nell'altro vi sono processori di classe enterprise con processori desktop....di tutto un po'.
Comunque al di la di questo i supercomputer nella top500 hanno come principale riferimento linpack.......e prendendo per buono quanto riportato nel link ove appare sandy bridge 2600 a confronto per esempiocon power7 di IBM credo non possa esser trascurata la data di costruzione del processore e la tecnologia in nanometri utilizzata per la sua costruzione. Quando si parla di efficenza in termini performace/watt direi che questi ultimi due fattori sono da tenere presenti......POWER7 nello specifico e' realizzato a 45 nm mentre sandy e' a 32 nm........comunque non vi e' dubbio alcuno che in questi ultimi anni intel ha finalmente fatto un ottimo lavoro di evoluzione in termini di efficenza x86 anche perche' se prendessimo in esame l'architettura netburst risalente ad alcuni anni fa il paragone non sarebbe nemmeno fattibile. Vedremo cosa ci riserva il futuro con l'agguerrito avanzamento di ARM e con le nuove versioni di processori RISC (non solo Power7+ e power8 che saranno a 32 e 28 nm, ma anche ultrasparc che sembrano avere una nuova possibilita di sviluppo con oracle) .
xshodan
ho visto i links.......ma a mio avviso sono parecchio lacunosi o si voglia confrntare pere con mele...in un link viene riportato un confronto tra una serie di cpu e gpu tra l'altro non proprio recenti mentre nell'altro vi sono processori di classe enterprise con processori desktop....di tutto un po'.
Ciao,
i grafici non sono lacunosi: sono stati fatti col preciso intento di mettere a confronto la capacità DP delle (allora) più moderne microarchitetture.
Comunque al di la di questo i supercomputer nella top500 hanno come principale riferimento linpack.......e prendendo per buono quanto riportato nel link ove appare sandy bridge 2600 a confronto per esempiocon power7 di IBM credo non possa esser trascurata la data di costruzione del processore e la tecnologia in nanometri utilizzata per la sua costruzione. Quando si parla di efficenza in termini performace/watt direi che questi ultimi due fattori sono da tenere presenti......POWER7 nello specifico e' realizzato a 45 nm mentre sandy e' a 32 nm........comunque non vi e' dubbio alcuno che in questi ultimi anni intel ha finalmente fatto un ottimo lavoro di evoluzione in termini di efficenza x86 anche perche' se prendessimo in esame l'architettura netburst risalente ad alcuni anni fa il paragone non sarebbe nemmeno fattibile. Vedremo cosa ci riserva il futuro con l'agguerrito avanzamento di ARM e con le nuove versioni di processori RISC (non solo Power7+ e power8 che saranno a 32 e 28 nm, ma anche ultrasparc che sembrano avere una nuova possibilita di sviluppo con oracle) .
Riguardo al confronto Sandy Bridge - Power7: direi che i risultati della CPU x86 sono estremamente positivi. Devi considerare infatti che i Power7 dispongono di 4 controller DRAM, una notevolissima cache eDRAM e un back-end di esecuzione di prim'ordine, coadiuvato da SMT a 4 vie. Il tutto ha un costo in termini di die space: ben 567 mm2.
In confronto, una modesta CPU Core i3 (2 core con 2 controller DRAM) fornisce valori di SpecInt/SpecFp per MHz praticamente identici, il tutto con uno spazio su die decisamente minore.
Ovviamente quello non vuole e non può essere un confronto diretto, in quanto ci sono troppe variabili da considerare (una su tutti, i diversi compilatori utilizzati), ma quei valori mostrano chiaramente l'enorme lavoro fatto sulle CPU x86. A proposito, i valori degli Opteron sono un po' bassi: se non ricordo male, il submit fu fatto da Intel, quindi non c'è da aspettarsi un'ottimizzazione stellare! :D
A favore del Power7 giocano altri fattori, come la notevolissima banda verso l'I/O (che occupa parecchio spazio sul die), decisamente superiore rispetto a quella garantita dal bus QPI di Intel. E qui torniamo al discorso di prima: sono CPU pensate per compiti diversi. In un supercomputer, la banda verso le DRAM e l'I/O ha un ruolo di prim'ordine, mentre su un desktop la loro importanza è notevolmente ridimensionata.
Ciao. :)
coschizza
20-11-2011, 17:02
xshodan
per efficenza si intende rapporto performance/watt......i power di ibm , come gli ARM, a core RISC ottongono rapporti a valori talmente favorevoli da non poter essere confrontati con cpu x86.
eppure apple è passata dalle cpu power di ibm a quelle intel perche il rapporto performance/watt era nettamente a favore della soluzione x86 rispetto a quella risk di ibm
power e arm sono risc solo teoricamente perche poi hanno un implementazione nettamente differente che porta ad avere risumtati diametralmente opposti nel rapporto performance/watt, questo perche una è nata per performance l'altra per puntare sui consumi.
Prodotto affascinante questo nuovo Blue Gene, i suoi ambiti d'impiego, invece, mi fanno cadere le braccia.
e perchè, secondo te per cosa dovrebbero essere usati supercomputer di questo calibro? youporn?:fagiano:
xcoschizza
apple non ha abbandonato il powerPC di IBM per cause inerenti al rapporto performane/watt.....ma solo perche IBM non aveva piu' intenzione di sviluppare i propri powerPC per il mercato desktop che asserviva praticamente le sole vendite che faceva apple(in termini di volumi parecchio marginali). Poi attenzione a no confondere pere con mele la linea POWER e la linea powerPC sono due cose distinte.....nell'articolo si parla do powerPC AS che come vedi ha il miglior rapporto performance/ watt......noi abbiamo parlato anche della linea enterprise POWER ma anche in questo caso anche se entrambi appartenenti alla ,diciamo, stessa famiglia sono due processori per ambiti diversi.
Per quanto concerne ARM e' stata solo citata perche insieme a ultrasparc e' un'altra delle poche famiglie di processori esistenti a base risc.....non per fare confonti diretti con il loro campo di utilizzo naturalmente.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.