Supercomputer, c'è un nuovo numero uno! Nella Top 10 anche due sistemi italiani

Supercomputer, c'è un nuovo numero uno! Nella Top 10 anche due sistemi italiani

La classifica TOP500 certifica il nuovo numero uno nel mondo dei supercomputer: si tratta del Fugaku installato in Giappone, equipaggiato con chip Fujitsu A64FX basati su architettura ARM. Il nuovo sistema sprigiona una potenza di calcolo di 415,5 petaflops.

di pubblicata il , alle 09:01 nel canale Sistemi
 

La 55esima edizione della classifica TOP500 sui supercomputer più potenti al mondo vede un nuovo numero uno e tante novità. Il supercomputer Fugaku installato al RIKEN Center for Computational Science (R-CCS) di Kobe, in Giappone, è il nuovo "comandante in capo", con una potenza di calcolo rilevata con High Performance Linpack (HPL) di 415,5 petaflops. Il supercomputer giapponese, con oltre 7,2 milioni di core, può raggiungere prestazioni di picco con calcoli a singola precisione o persino inferiore (carichi tipici del machine learning e dell'IA) di oltre 1 exaflop.

Il nuovo sistema, mosso da SoC A64FX a 48 core ARM di Fujitsu, supera di 2,8 volte la potenza di Summit, il supercomputer statunitense che ha guidato a lungo la classifica. Realizzato da IBM, Summit si ferma a 148,8 petaflops in HPL, grazie a 4356 nodi dotati di quattro CPU IBM Power9 a 22 core e sei GPU Nvidia V100 ciascuno. Summit è ospitato all'Oak Ridge National Laboratory (ORNL) in Tennessee.

Al terzo posto si conferma Sierra con una potenza di 94,6 petaflops e un'architettura molto simile a Summit, infatti ogni nodo (4320) ha due CPU Power9 e quattro Nvidia V100. Quarta e quinta posizione per i supercomputer cinesi Sunway TaihuLight con 93 petaflops e Tianhe-2A (Milky Way-2A) con 61,4 petaflops.

C'è anche un po' di Italia nella classifica, a partire dall'HPC5 di Eni in sesta posizione. Si tratta di un sistema PowerEdge realizzato da Dell capace di produrre una potenza di 35,5 petaflops. È il supercomputer europeo più veloce, ed è merito dell'accoppiata formata da CPU Xeon e GPU Nvidia V100.

Dobbiamo passare alla settima posizione per trovare il primo supercomputer con GPU Nvidia A100 "Ampere": si tratta di Selene, e non è altro che un sistema DGX SuperPOD installato dalla stessa Nvidia nel suo quartier generale. Con una potenza di 27,58 petaflops, il DGX SuperPOD si basa su CPU AMD EPYC di seconda generazione "Rome".

Ottava posizione per il Frontera, un sistema Dell C6420 con 448.448 core Intel Xeon installato presso il Texas Advanced Computing Center (TACC) e capace di raggiungere 23,5 petaflops nel test HPL. Nona posizione per il secondo sistema italiano, il Marconi-100 installato nel centro ricerche CINECA di Casalecchio di Reno. Un sistema che tra l'altro è in prima linea contro il COVID-19. A bordo troviamo CPU IBM Power9 e GPU Nvidia V100, per una potenza di calcolo di 21,6 petaflops. Chiude la top 10 il Piz Daint, un supercomputer Cray XC50 situato allo Swiss National Supercomputing Centre (CSCS) di Lugano. Il Piz Daint è in grado di raggiungere i 19,6 petaflops grazie a processori Intel Xeon e GPU Nvidia P100.

Emergono alcuni dati interessanti da quest'ultima edizione della TOP500. Il primo è che la potenza aggregata è salita in sei mesi da 1,65 a 2,23 petaflops, anche se la maggior parte dell'aumento va ascritta al supercomputer Fugaku. La Cina continua a dominare per quanto concerne il numero dei sistemi, con 226 supercomputer, seguita dagli Stati Uniti con 114 sistemi, il Giappone con 30, la Francia con 18 e la Germania con 16. In termini di potenza di calcolo complessiva gli Stati Uniti continuano a guidare il gruppo con 644 petaflops, contro i 565 petaflops cinesi e i 530 petaflops del Giappone.

Un totale di 144 sistemi usa acceleratori o coprocessori, e in questo caso è Nvidia a fare la parte del leone con ben 135 presenze. L'architettura x86 continua a essere quella dominante per quanto riguarda i microprocessori, trovando posto in 481 sistemi su 500. Di questi, 469 supercomputer hanno chip Intel, 11 processori AMD (quattro nei primi 50) e un sistema è basato su soluzioni della cinese Hygon. ARM è presente in quattro supercomputer della TOP500, tre dei quali usano i nuovi chip Fujitsu A64FX mentre uno è dotato di SoC Marvell ThunderX2.

Osservando i supercomputer in termini di efficienza, il quadro è differente: si chiama MN-3 il sistema al vertice della classifica Green500, con 21,1 gigaflops per watt possibili grazie a chip specializzati chiamati MN-Core. A seguire il Selene di Nvidia, mentre il Fugaku è "solo" nono con 14,67 gigaflops per watt.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

11 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
DanieleG23 Giugno 2020, 09:17 #1
Si tratta di un sistema PowerEdge realizzato da Dell capace di produrre una potenza di 35,5 peraflops


Unrue23 Giugno 2020, 09:20 #2
Un' altra classifica molto importante è questa:

https://www.top500.org/lists/green500/2020/06/

Dove si vede come si sfrutta l'energia disponibile al meglio, e anche qua siamo posizionati bene. Ovviamente Cina, USA e Giappone non hanno problemi di corrente elettrica e quindi possono pompare al massimo e consumare a volontà.
Rubberick23 Giugno 2020, 09:32 #3
Sarebbe figo se AMD si riprendesse un po' di spazio in classifica, gli Epyc rullano...
WarDuck23 Giugno 2020, 11:40 #4
Dai dati si evince che il nuovo supercomputer con ARM ha la stessa efficienza di Summit.

2.8 volte più potente e 2.8 volte i kW.

Infatti nella lista dei Green hanno praticamente circa la stessa efficienza, con Summit leggermente più efficiente.

C'è da dire che in Summit la differenza la fanno gli acceleratori (con le V100 che spingono forte ).

Comunque se si vuole salire tanto con i FLOPS e poco con i consumi quella è la strada, come dimostra NVIDIA con il suo sistema con A100.
WarDuck23 Giugno 2020, 11:47 #5
Originariamente inviato da: Rubberick
Sarebbe figo se AMD si riprendesse un po' di spazio in classifica, gli Epyc rullano...


Lo farà con "Frontier" il prossimo anno e "El Capitan" nel 2023:

https://www.amd.com/en/products/exascale-era

Un bel colpo per AMD, in pratica 2 dei TOP Supercomputer in US saranno powered by AMD
pipperon23 Giugno 2020, 12:03 #6
Originariamente inviato da: Rubberick
Sarebbe figo se AMD si riprendesse un po' di spazio in classifica, gli Epyc rullano...


ci si mette tempo a fare un oggetto del genere.
Pensa solo che fino a 6 mesi fa il 12simo in classifica era titan che aveva come processori gli opteron (in pratica un phenomII) che sebbene snobbati dai videogamer non era cosi' male tanto da essere stato upgradato con schede grafiche pochi anni fa.
Pochi di questi computer durano 8 anni in vetta alle classifiche, certo ci sono le eccezioni dei processori POWER, ma quelli sono processori molto aggressivi. Anche quelli non se li fila nessuno.

Questo ti dice che non sempre il processore migliore ha successo, TITAN prese n casino di premi, era efficiente, economico, veloce e scalava bene.
Eppure opteron nei piccoli server e nei desktop non vendette molto bene.

Alla fine oggi come oggi nei processori X86 AMD non porta a casa neppure un 10% del mercato, avere soldi da spendere nel marketing ha il suo perché.
andrea080723 Giugno 2020, 12:23 #7
Ma ha senso investire Ormai in questi super computer classici quando ora ci sono i computer quantistici come il sycamore di Google che è infinitamente più potente del più potente dei supercomputer classici?
!fazz23 Giugno 2020, 12:26 #8
Originariamente inviato da: andrea0807
Ma ha senso investire Ormai in questi super computer classici quando ora ci sono i computer quantistici come il sycamore di Google che è infinitamente più potente del più potente dei supercomputer classici?


questo non è propriamente vero, senza notare che i processori quantistici sono poco più che prototipi non hanno ne la flessibilità ne la potenza di un supercomputer classico per la maggior parte delle applicazioni
WarDuck23 Giugno 2020, 12:34 #9
Originariamente inviato da: andrea0807
Ma ha senso investire Ormai in questi super computer classici quando ora ci sono i computer quantistici come il sycamore di Google che è infinitamente più potente del più potente dei supercomputer classici?


Assolutamente si, siamo ancora all'alba del quantum computing, e al di là di esperimenti da laboratorio bisogna considerare moltissimi fattori limitanti, tra cui costi di sviluppo/produzione, costi di formazione per personale e programmatori.

In generale non puoi contare su un know-how sufficientemente diffuso e questo è un fattore limitante non da poco.

Ad esempio non esistono sistema operativi o librerie di supporto per questi sistemi, perché ancora "l'hardware" è acerbo, figurarsi il "software". Tra l'altro bisogna rivedere gli algoritmi in ottica quantum, il che è una rivoluzione totale nel modo di pensare e di approcciare alla programmazione di questi sistemi.

Cambia totalmente il paradigma. Probabilmente ancora di più rispetto al passaggio tra programmazione "seriale" e "parallela".

Non sono esperto di quantum computing, ma ritengo altamente probabile che il primo step per l'integrazione del "quantum" nei super computer attuali passi per schede che accelerino determinate tipologie di calcoli, un po' come è accaduto per le GPU e sta accadendo per acceleratori per il Machine Lerning.

Non vedo altre strade percorribili almeno nel medio termine.
Rubberick23 Giugno 2020, 14:17 #10
Originariamente inviato da: andrea0807
Ma ha senso investire Ormai in questi super computer classici quando ora ci sono i computer quantistici come il sycamore di Google che è infinitamente più potente del più potente dei supercomputer classici?


Occhio che quando nei documentari e negli articoli si dice che siano infinitamente più potenti si fa riferimento a calcoli particolari come la fattorizzazione dei numeri primi o altre situazioni dove con l'approccio classico e un pc classico ci vorrebbero secoli.

Ma su quelli, basta. O meglio in un ipotetico futuro dove saranno disp easy i computer quantistici riscrivendo tonnellate di codice magari si avranno performance migliori anche su situazioni di altro genere.

Però ciò non toglie che nel frattempo si fa molto molto prima a usare l'approccio tradizionale passando dal silicio al grafene. Quindi da una media di 3-4 GHz per core di frequenza operativa ad oltre 100 per core, magari conservando o stesso design o emulandolo.

Da qui capisci che con un processore anche single core ma ad oltre 100GHz anche un programma scritto 10 anni fa, no multithread e poco ottimizzato volerebbe... accorciando di molto il suo tempo di esecuzione.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^