PDA

View Full Version : Supercomputer, ecco quali sono i più potenti al mondo: il giapponese Fugaku allunga


Redazione di Hardware Upg
17-11-2020, 14:41
Link alla notizia: https://www.hwupgrade.it/news/sistemi/supercomputer-ecco-quali-sono-i-piu-potenti-al-mondo-il-giapponese-fugaku-allunga_93547.html

Il supercomputer giapponese Fugaku si riconferma il più potente al mondo, anche grazie a un aggiornamento hardware. Nvidia domina la scena sul fronte degli acceleratori e AMD riesce a raddoppiare la presenza delle sue CPU nei nuovi sistemi nel giro di sei mesi.

Click sul link per visualizzare la notizia.

pingalep
17-11-2020, 16:12
siamo ottavi in graduatoria!
non lo avrei mai pensato

joe4th
17-11-2020, 16:22
Va notato che Fugaku e' un sistema omogeneo, ossia e' basato su processore ARM64 e non ha acceleratori GPU. Per il successivo sistema Fujitsu invece hanno abbandonato quell'architettura e sono tornati ai classici Xeon piu' un certo numero di schede GPU.

Da un punto di vista dell'utilizzo (lato utente) un sistema omogeneo e' molto meno complicato rispetto ai sistemi ibridi. I sistemi ibridi hai le CPU e le GPU e devono essere programmate in maniera differente, inoltre le GPU hanno vantaggi ma anche limitazioni: vantaggi hanno memorie molto veloci, svantaggi, hanno quantitativi molto limitati rispetto alla memoria centrale del nodo. Inoltre le GPU danno il meglio di se in algebra densa. I valori di TFLOPS delle GPU sono generalmente riferiti ai valori di picco in DGEMM (moltiplicazione matrice-matrice in doppia precisione) per una particolare dimensione della matrice, prossima a saturare la memoria della GPU. Fuori da quelle condizioni le prestazioni decrescono molto piu' velocemente che non le CPU.
Quindi programmi sul nodo, e poi aggreghi i nodi in MPI, chiedendo al gestore delle code un certo numero di processori. Raramente ci sono sistemi "logici" che aggregano tutto e li usi in maniera trasparente.

Sarebbe interessante avere qualche altro riscontro che non il semplice risultato del Linpack RMax.

Va ricordato che il primo sistema EXAFLOPS distribuito e' stato raggiunto a marzo/aprile di quest'anno ed era la potenza computazionale del folding@home orientato al covid.

Visto che parlate di potenza computazionale aggregata per paese, sarebbe interessante conoscere il valore della potenza aggregata dell'Unione Europea (tra Marconi-ITA, Julich-GER, MareNostrum-SPA, un centinaio di petaflops penso li spuntiamo, i francesi ce ne hanno?).

joe4th
17-11-2020, 16:40
Poi dopo un certo numero di anni (di solito il doppio della legge di Moore), i sistemi vengono smantellati in quanto come rapporto tra potenza computazione/energia consumata diventa inefficiente, e se nel consorzio ci sono i fondi, aggiornati con lo stato dell'arte CPU+GPU+interconnettivita' del momento... :-)

Opteranium
17-11-2020, 17:02
in giappone è il caso di dire "one man band".. il fugaku da solo fa 3/4 della capacità totale

joe4th
17-11-2020, 18:08
A spanne, sommando fra i primi 60 presenti nell'UE, si raggiungono sui 250 Petaflops.

Opteranium
17-11-2020, 19:11
A spanne, sommando fra i primi 60 presenti nell'UE, si raggiungono sui 250 Exaflops.
cala di tre zeri.. ;)

joe4th
17-11-2020, 19:14
cala di tre zeri.. ;)

Ho corretto; magari fossero 250 Exaflops, grazie.

AceGranger
17-11-2020, 20:09
Va notato che Fugaku e' un sistema omogeneo, ossia e' basato su processore ARM64 e non ha acceleratori GPU. Per il successivo sistema Fujitsu invece hanno abbandonato quell'architettura e sono tornati ai classici Xeon piu' un certo numero di schede GPU.

Da un punto di vista dell'utilizzo (lato utente) un sistema omogeneo e' molto meno complicato rispetto ai sistemi ibridi. I sistemi ibridi hai le CPU e le GPU e devono essere programmate in maniera differente, inoltre le GPU hanno vantaggi ma anche limitazioni: vantaggi hanno memorie molto veloci, svantaggi, hanno quantitativi molto limitati rispetto alla memoria centrale del nodo. Inoltre le GPU danno il meglio di se in algebra densa. I valori di TFLOPS delle GPU sono generalmente riferiti ai valori di picco in DGEMM (moltiplicazione matrice-matrice in doppia precisione) per una particolare dimensione della matrice, prossima a saturare la memoria della GPU. Fuori da quelle condizioni le prestazioni decrescono molto piu' velocemente che non le CPU.
Quindi programmi sul nodo, e poi aggreghi i nodi in MPI, chiedendo al gestore delle code un certo numero di processori. Raramente ci sono sistemi "logici" che aggregano tutto e li usi in maniera trasparente.

Sarebbe interessante avere qualche altro riscontro che non il semplice risultato del Linpack RMax.

Va ricordato che il primo sistema EXAFLOPS distribuito e' stato raggiunto a marzo/aprile di quest'anno ed era la potenza computazionale del folding@home orientato al covid.

Visto che parlate di potenza computazionale aggregata per paese, sarebbe interessante conoscere il valore della potenza aggregata dell'Unione Europea (tra Marconi-ITA, Julich-GER, MareNostrum-SPA, un centinaio di petaflops penso li spuntiamo, i francesi ce ne hanno?).

eh ma piano piano stanno arrivando anche a colmare quel gap; con le A100 da 80GB appena presentate si puo arrivare a 640GB su singolo nodo con 8 GPU e a 1,2 TB di HBM2 condivise con gli HGX e gli nVSwitch da 16 GPU.

renas
18-11-2020, 10:13
Presto dovremmo recuperare le posizioni perse da Marconi100 col nuovo Leonardo di CINECA, carico di A100 :)