PDA

View Full Version : Il Giappone vuole tornare al vertice dei supercomputer. Con Fugaku Next si punta alla 'classe Z'


Redazione di Hardware Upg
12-09-2024, 08:41
Link alla notizia: https://www.hwupgrade.it/news/server-workstation/il-giappone-vuole-tornare-al-vertice-dei-supercomputer-con-fugaku-next-si-punta-alla-classe-z_130660.html

Nella corsa globale per il dominio del calcolo ad alte prestazioni, il Giappone ha annunciato il progetto di costruire un supercomputer di classe zeta, capace cioè di toccare una potenza di calcolo in termini di zetaFLOPS. Prima, però, il Giappone deve capire come soddisfare i monumentali requisiti energetici.

Click sul link per visualizzare la notizia.

Paganetor
12-09-2024, 08:55
"zetta", con 2 t :p

Notturnia
12-09-2024, 09:11
21 centrali nucleari per un super computer come questo ?..
parliamo di centrali nucleari dei puffi o centrali da 1.000 MW ?.. perchè 21 GW per alimentare un super computer da 1 Zflop sarebbe da sbellicarsi dalle risate.. un terzo dell'Italia per un singolo super computer ? 151 TWh anno ?.. quasi metà dei consumi Italiani per un solo super computer ?..

mi pare assurdo.. e mi domando a cosa serva un consumo così spropositato..

xxxyyy
12-09-2024, 10:05
Io salto, aspetto la classe Y, alimentata da 21 sfere di Dyson.

!fazz
12-09-2024, 10:14
21 centrali nucleari per un super computer come questo ?..
parliamo di centrali nucleari dei puffi o centrali da 1.000 MW ?.. perchè 21 GW per alimentare un super computer da 1 Zflop sarebbe da sbellicarsi dalle risate.. un terzo dell'Italia per un singolo super computer ? 151 TWh anno ?.. quasi metà dei consumi Italiani per un solo super computer ?..

mi pare assurdo.. e mi domando a cosa serva un consumo così spropositato..

beh fugaku ha 16 Pflops per un consumo di 30 MW
per arrivare a zetta le performance devono essere moltiplicate per 62'500( 1000000 /16) e quindi con un supercomputer da 1 zettaflops con l'efficenza attuale, suppondendo un incremento lineare delle prestazioni avrebbe un consumo stimato di 1875 GW quindi spannometricamente 21 centrali nucleari da 90 GW elettrici :eek: :eek:

ZeroSievert
12-09-2024, 10:26
beh fugaku ha 16 Pflops per un consumo di 30 MW
per arrivare a zetta le performance devono essere moltiplicate per 62'500( 1000000 /16) e quindi con un supercomputer da 1 zettaflops con l'efficenza attuale, suppondendo un incremento lineare delle prestazioni avrebbe un consumo stimato di 1875 GW quindi spannometricamente 21 centrali nucleari da 90 GW elettrici :eek: :eek:

IMHO forse e' piu' realistico fare i calcoli con Frontier

https://en.wikipedia.org/wiki/Frontier_(supercomputer)

21 MW x 1.2 exaFLOPS. Ovvero per arrivare allo zetta ci vuole circa un fattore 1000.. ovvero 21 GW equivalenti a circa 21 reattori da ~1GW (Tipo AP1000, EPR1200, SRZ-1200, ABWR o APR1000).

Sempre numeri giganteschi comunque.. :mbe:

!fazz
12-09-2024, 10:28
IMHO forse e' piu' realistico fare i calcoli con Frontier

https://en.wikipedia.org/wiki/Frontier_(supercomputer)

21 MW x 1.2 exaFLOPS. Ovvero per arrivare allo zetta ci vuole circa un fattore 1000.. ovvero 21 GW equivalenti a circa 21 reattori da 1 GW.

Sempre numeri giganteschi comunque.. :mbe:

avevo usato fugaku perchè guardando in rete sembra che fugaku next usi la stessa architettura di fugaku con core arm e non con le istinct

ma è ovvio che è una proiezione pur parlè visto che l'efficenza è la cosa che si guarda di più su un top500

Siux213
12-09-2024, 10:33
"158.976 nodi di calcolo che lo compongono per un totale di oltre 7.600 core" i core sono oltre 7,6 milioni non 7600

ZeroSievert
12-09-2024, 10:33
avevo usato fugaku perchè guardando in rete sembra che fugaku next usi la stessa architettura di fugaku con core arm e non con le istinct

ma è ovvio che è una proiezione pur parlè visto che l'efficenza è la cosa che si guarda di più su un top500

:cincin:

Notturnia
12-09-2024, 10:51
avevo usato fugaku perchè guardando in rete sembra che fugaku next usi la stessa architettura di fugaku con core arm e non con le istinct

ma è ovvio che è una proiezione pur parlè visto che l'efficenza è la cosa che si guarda di più su un top500

io invece mi domando.. e una volta che abbiamo fatto un mostro di questa potenza che mangia come metà di una nazione.. riesce a produrre abbastanza da giustificare i suoi enormi consumi o fa cose che non servono alla gente comune a cui forse fregherà il lavoro ?

non credo che sarà il super computer per fare le previsioni meteo..
ci farai fare ricerca.. medica ? militare ?.. che farà di bello con un consumo spaventoso.. e quando parte lui.. quante altre nazioni li faranno ?.. vedremo aumenti iperbolici dei consumi e quindi dei costi ? perchè queste bestie (io ne gestisco due di super computer in europa) consumano 24/7 e quindi le rinnovabili fanno molto poco.. molto poco..

sono bestioni enormi che divorano energia.. e i nuovi Zflops sembra possano essere preoccupanti stando a questi numeri..

ZeroSievert
12-09-2024, 10:57
io invece mi domando.. e una volta che abbiamo fatto un mostro di questa potenza che mangia come metà di una nazione.. riesce a produrre abbastanza da giustificare i suoi enormi consumi o fa cose che non servono alla gente comune a cui forse fregherà il lavoro ?

non credo che sarà il super computer per fare le previsioni meteo..
ci farai fare ricerca.. medica ? militare ?.. che farà di bello con un consumo spaventoso.. e quando parte lui.. quante altre nazioni li faranno ?.. vedremo aumenti iperbolici dei consumi e quindi dei costi ? perchè queste bestie (io ne gestisco due di super computer in europa) consumano 24/7 e quindi le rinnovabili fanno molto poco.. molto poco..

sono bestioni enormi che divorano energia.. e i nuovi Zflops sembra possano essere preoccupanti stando a questi numeri..

E' una domanda molto difficile a cui rispondere. Mettendo da parte un secondo tutte le questioni relative al machine learning (e i problemi sociali annessi), ti posso dire che in alcuni settori della fisica, chimica e biologia la potenza non basta mai. Nonostante i supercomputer attuali non siano "piccoli" per alcuni problemi sono appena sufficienti a far girare modelli approssimati del sistema che si vuole simulare.

Vale la candela avere macchine che consumano GW per avere simulazioni piu' precise? Come al solito, il problema della ricerca e' che non hai certezza di quello che troverai. Puoi fare un buco nell'acqua oppure fare una scoperta che rivoluzionera' completamente il mondo (e nel mondo della biologia e della medicina ci sono le potenzialita'). Non lo puoi sapere in anticipo.

!fazz
12-09-2024, 11:03
io invece mi domando.. e una volta che abbiamo fatto un mostro di questa potenza che mangia come metà di una nazione.. riesce a produrre abbastanza da giustificare i suoi enormi consumi o fa cose che non servono alla gente comune a cui forse fregherà il lavoro ?

non credo che sarà il super computer per fare le previsioni meteo..
ci farai fare ricerca.. medica ? militare ?.. che farà di bello con un consumo spaventoso.. e quando parte lui.. quante altre nazioni li faranno ?.. vedremo aumenti iperbolici dei consumi e quindi dei costi ? perchè queste bestie (io ne gestisco due di super computer in europa) consumano 24/7 e quindi le rinnovabili fanno molto poco.. molto poco..

sono bestioni enormi che divorano energia.. e i nuovi Zflops sembra possano essere preoccupanti stando a questi numeri..

il problema è che questo mostro di potenza è parecchie volte più potente di un top500 attuale per cosa verrà utilizzato boh, dipende l'ultimo supercomputer ordinato in Italia mi pare che serva per ricerca petrolifera.


riguardo al consumo si consumano un botto h24 qundi con il fotovoltaico ci fai poco serve il nucleare il resto ha poco senso molto più importante dal mio punto di vista è il recupero energetico su questi mostri 21 GW termici sono una marea di energia con il problema del bassissimo salto entalpico ma se anche solo stoccano i rack immersi nel novec 7100 e fanno un raffreddamento bifasico sui 70°C almeno possono fare un grosso impianto di teleriscaldamento

Notturnia
12-09-2024, 13:13
E' una domanda molto difficile a cui rispondere. Mettendo da parte un secondo tutte le questioni relative al machine learning (e i problemi sociali annessi), ti posso dire che in alcuni settori della fisica, chimica e biologia la potenza non basta mai. Nonostante i supercomputer attuali non siano "piccoli" per alcuni problemi sono appena sufficienti a far girare modelli approssimati del sistema che si vuole simulare.

Vale la candela avere macchine che consumano GW per avere simulazioni piu' precise? Come al solito, il problema della ricerca e' che non hai certezza di quello che troverai. Puoi fare un buco nell'acqua oppure fare una scoperta che rivoluzionera' completamente il mondo (e nel mondo della biologia e della medicina ci sono le potenzialita'). Non lo puoi sapere in anticipo.

che ci siano settori dove un mostro come questo può velocizzare di molto le cose non ne ho dubbi.. per quello pensavo medicina e scienza ma chi crea un mostro come questo che ha un costo di installazione folle e un costo di gestione impressionante (tanto per dirti in Italia un mostro come questo da 150 TWh/anno spenderebbe di energia elettrica circa 20 miliardi di euro/anno.. non so se mi spiego..)

chi può permettersi di gestire una cosa simile lo fa per i soldi e non per la ricerca.. deve fatturare almeno 60 miliardi anno per coprire le spese senza guadagnarci molto... non vedo molti disposti a spendere così tanto senza averne un enorme tornaconto..

ZeroSievert
12-09-2024, 13:53
che ci siano settori dove un mostro come questo può velocizzare di molto le cose non ne ho dubbi.. per quello pensavo medicina e scienza ma chi crea un mostro come questo che ha un costo di installazione folle e un costo di gestione impressionante (tanto per dirti in Italia un mostro come questo da 150 TWh/anno spenderebbe di energia elettrica circa 20 miliardi di euro/anno.. non so se mi spiego..)

chi può permettersi di gestire una cosa simile lo fa per i soldi e non per la ricerca.. deve fatturare almeno 60 miliardi anno per coprire le spese senza guadagnarci molto... non vedo molti disposti a spendere così tanto senza averne un enorme tornaconto..

Partiamo dall'assunto che qui qualcuno, con tutta probabilità, ha fatto un'errore o una sparata visto che un miglioramento di un fattore 1000 di un parametro tecnico, di qualsiasi tipo e in qualsiasi settore, in 5 anni é pressoché impossibile (forse solo agli albori dell'informatica, ma ho i miei dubbi).

Proprio perchè si parla di cifre gigantesche di solito é lo stato che ci mette i soldi. Sembra tanto ma va tutto messo in prospettiva. Metti che la ricerca effettuata permetta di allungare la vita media umana di 10 anni oppure aumenti la redditività agricola del 50% a parità di superficie. A quel punto 60 miliardi/anno potrebbero essere -pochi-.

Zappz
12-09-2024, 13:58
io invece mi domando.. e una volta che abbiamo fatto un mostro di questa potenza che mangia come metà di una nazione.. riesce a produrre abbastanza da giustificare i suoi enormi consumi o fa cose che non servono alla gente comune a cui forse fregherà il lavoro ?

non credo che sarà il super computer per fare le previsioni meteo..
ci farai fare ricerca.. medica ? militare ?.. che farà di bello con un consumo spaventoso.. e quando parte lui.. quante altre nazioni li faranno ?.. vedremo aumenti iperbolici dei consumi e quindi dei costi ? perchè queste bestie (io ne gestisco due di super computer in europa) consumano 24/7 e quindi le rinnovabili fanno molto poco.. molto poco..

sono bestioni enormi che divorano energia.. e i nuovi Zflops sembra possano essere preoccupanti stando a questi numeri..

Ci minano bitcoin. :D

Alodesign
12-09-2024, 14:00
Ancora nessuno con la battuta su Crysis?

Notturnia
12-09-2024, 14:09
Partiamo dall'assunto che qui qualcuno, con tutta probabilità, ha fatto un'errore o una sparata visto che un miglioramento di un fattore 1000 di un parametro tecnico, di qualsiasi tipo e in qualsiasi settore, in 5 anni é impossibile (forse solo agli albori dell'informatica, ma ho i miei dubbi).

Proprio perchè si parla di cifre gigantesche di solito é lo stato che ci mette i soldi. Sembra tanto ma va tutto messo in prospettiva. Metti che la ricerca effettuata permetta di allungare la vita media umana di 10 anni oppure aumenti la redditività agricola del 50% a parità di superficie. A quel punto 60 miliardi/anno potrebbero essere -pochi-.

non investi centinaia di miliardi dei contribuenti per una speranza di trovare qualcosa..

attenzione.. io parlavo dei costi di gestione e non dei costi di acquisto.. qua parliamo di un mostro che passerà i 100 miliardi come realizzazione fra edificio e strutture.. se lo stato proponesse di fare un investimento che è il 5% dei suo debito nella SPERANZA di ricavarci qualcosa di positivo credo che ci sarebbe una rivoluzione..

in 10 anni di funzionamento parliamo di 700 miliardi (il 30% del debito nazionale italiano) di costi per la speranza di fare qualcosa di buono ? ..

forse muschio può giocare con i soldi altrui ma uno stato non credo che si befferebbe dei cittadini dicendo che alza le tasse sperando di dare più cibo..

questo coso, se lo fanno, ha già uno scopo e non credo sia la pace nel mondo e pappa per tutti

Notturnia
12-09-2024, 14:09
Ancora nessuno con la battuta su Crysis?

i bimbi di oggi non la capirebbero :-D

ZeroSievert
12-09-2024, 14:23
non investi centinaia di miliardi dei contribuenti per una speranza di trovare qualcosa..

attenzione.. io parlavo dei costi di gestione e non dei costi di acquisto.. qua parliamo di un mostro che passerà i 100 miliardi come realizzazione fra edificio e strutture.. se lo stato proponesse di fare un investimento che è il 5% dei suo debito nella SPERANZA di ricavarci qualcosa di positivo credo che ci sarebbe una rivoluzione..

in 10 anni di funzionamento parliamo di 700 miliardi (il 30% del debito nazionale italiano) di costi per la speranza di fare qualcosa di buono ? ..

forse muschio può giocare con i soldi altrui ma uno stato non credo che si befferebbe dei cittadini dicendo che alza le tasse sperando di dare più cibo..

questo coso, se lo fanno, ha già uno scopo e non credo sia la pace nel mondo e pappa per tutti

Beh, visto i numeri in gioco, direi che l'unica sarebbe consultare un esperto in materia per capire l'economia di queste macchine.

Per parlarti di questioni che conosco un poco meglio.. per la nuova generazione di colliders e Higgs factories si prospettano consumi di centinaia di MW.

FCC-ee dovrebbe stare sui 300MW se non ricordo male.

Molti meno di un supercomputer multi-GW.. Ma tanti se si considera che la ricerca diretta che ne potrebbe venire fuori ha poca probabilità di avere applicazioni pratiche a breve.

frncr
12-09-2024, 14:48
Partiamo dall'assunto che qui qualcuno, con tutta probabilità, ha fatto un'errore o una sparata visto che un miglioramento di un fattore 1000 di un parametro tecnico, di qualsiasi tipo e in qualsiasi settore, in 5 anni é pressoché impossibile (forse solo agli albori dell'informatica, ma ho i miei dubbi).

Non si tratta di un singolo "parametro tecnico", ovviamente. Questi sono sistemi massivamente paralleli che possono essere scalati sostanzialmente senza limiti. O meglio i limiti pratici sono quelli del denaro e dell'energia per alimentarli.
Per passare dalla scala tera alla peta ci sono voluti 12 anni (1996-2008); per passare dalla scala peta a quella exa, su singolo sistema quindi escludendo il calcolo distribuito, ci sono voluti ancora 12 anni (2008-2020). Mantenendo la stessa funzione di crescita si arriverebbe alla scala zetta nel 2032, quindi non sembra una pretesa così assurda (se si hanno le risorse e si è disposti a spendercele).

ZeroSievert
12-09-2024, 15:07
Non si tratta di un singolo "parametro tecnico", ovviamente. Questi sono sistemi massivamente paralleli che possono essere scalati sostanzialmente senza limiti. O meglio i limiti pratici sono quelli del denaro e dell'energia per alimentarli.
Per passare dalla scala tera alla peta ci sono voluti 12 anni (1996-2008); per passare dalla scala peta a quella exa, su singolo sistema quindi escludendo il calcolo distribuito, ci sono voluti ancora 12 anni (2008-2020). Mantenendo la stessa funzione di crescita si arriverebbe alla scala zetta nel 2032, quindi non sembra una pretesa così assurda (se si hanno le risorse e si è disposti a spendercele).

Appunto. Il limite, come spesso accade, sono l'energia e le risorse economiche. Hai detto poco, sono il maggior collo di bottiglia per l'avanzamento dell'umanità.

Anche fossero la metà o un quarto di 21 GW, tu pensi che il Giappone abbia anche solo la possibilità di costruire o allocare questa potenza per un singolo progetto di supercomputer entro il 2032? E questo tralasciando la costruzione del supercomputer stesso. Direi che siamo al di la' del piú roseo ottimismo.

frncr
12-09-2024, 15:29
Appunto. Il limite, come spesso accade, sono l'energia e le risorse economiche.
Già, quindi nulla di simile a un "parametro tecnico".

Anche fossero la metà di 21 GW, tu pensi che il Giappone abbia anche solo la possibilità di costruire o allocare questa potenza per un singolo progetto di supercomputer entro 2032?
Io non dico un bel nulla di tutto ciò, dico solo che la funzione storica di crescita della potenza dei supercomputer proietta la soglia zettascale al 2032.

Dopodiché, i 21 GW sono un numero di fantasia basato sull'assunto che le performance per watt restino invariate per 12 anni. Ovviamente non è così, altrimenti avremmo ancora i supercomputer da 1 gigaFLOP. Il dato FLOPS per watt dei computer terascale era ben diverso dal dato dei computer petascale, che è ben diverso dal dato dei computer exascale, e immagino sarà ben diverso nei computer zettascale. Possibile che il primo sistema zettascale, quando arriverà, avrà potenza elettrica nell'ordine del GW, certamente non di decine di GW. Chi vivrà vedrà.

ZeroSievert
12-09-2024, 15:42
Già, quindi nulla di simile a un "parametro tecnico".


Io non dico un bel nulla di tutto ciò, dico solo che la funzione storica di crescita della potenza dei supercomputer proietta la soglia zettascale al 2032.

Dopodiché, i 21 GW sono un numero di fantasia basato sull'assunto che le performance per watt restino invariate per 12 anni. Ovviamente non è così, altrimenti avremmo ancora i supercomputer da 1 gigaFLOP. Il dato FLOPS per watt dei computer terascale era ben diverso dal dato dei computer petascale, che è ben diverso dal dato dei computer exascale, e immagino sarà ben diverso nei computer zettascale. Possibile che il primo sistema zettascale, quando arriverà, avrà potenza elettrica nell'ordine del GW, certamente non di decine di GW. Chi vivrà vedrà.

Parametro tecnico é anche la grandezza o la potenza computazionale di una macchina. Esattamente dove avrei sbagliato?

Io i miei calcoli li ho fatti sulla base di Frontier, l'attuale primo della top 500. E anche assumendo un miglioramento di un fattore 4 (5GW, se rileggi il mio messaggio precedente), continuo a pensare che siano numeri impossibili per il 2032 (e ancora meno per il 2030) solo parlando della potenza richiesta. Liberissimo di pensarla diversamente.

E comunque per questo sono d'accordo con te: chi vivrà vedrà.

frncr
12-09-2024, 16:06
Parametro tecnico é anche la grandezza o la potenza computazionale di una macchina. Esattamente dove avrei sbagliato?
Come ho già detto, quel parametro tecnico non è limitato, perciò non ha senso dubitare, come hai fatto, che possa crescere con un dato rateo. Infatti quel dato tecnico cresce di tre ordini di grandezza ogni 12 anni, per quanto ti possa sembrare strano.

Io i miei calcoli li ho fatti sulla base di Frontier
Il supercomputer più efficiente oggi operativo fa 73 GFLOPS per watt, il che significa che con quella tecnologia già oggi servirebbero "solo" 13,7 GW per uno zettaflops. L'efficienza dei supercomputer raddoppia circa ogni 2 anni, perciò da oggi al 2032 si può stimare un consumo minimo di 13,7 / 2^4 = 0,86 GW per uno zettaflops. E' solo un'estrapolazione che presuppone che la funzione di crescita dell'efficienza resti uguale all'attuale ancora per 8 anni, ma è comunque una stima molto più ragionevole della tua, che postula progresso tecnico = zero.

ZeroSievert
12-09-2024, 16:15
Come ho già detto, quel parametro tecnico non è limitato, perciò non ha senso dubitare, come hai fatto, che possa crescere con un dato rateo. Infatti quel dato tecnico cresce di tre ordini di grandezza ogni 12 anni, per quanto ti possa sembrare strano.


Il supercomputer più efficiente oggi operativo fa 73 GFLOPS per watt, il che significa che con quella tecnologia già oggi servirebbero "solo" 13,7 GW per uno zettaflops. L'efficienza dei supercomputer raddoppia circa ogni 2 anni, perciò da oggi al 2032 si può stimare un consumo minimo di 13,7 / 2^4 = 0,86 GW per uno zettaflops. E' solo un'estrapolazione che presuppone che la funzione di crescita dell'efficienza resti uguale all'attuale ancora per 8 anni, ma è comunque una stima molto più ragionevole della tua, che postula progresso tecnico = zero.

Ok. Quindi é un parametro tecnico. E ho parlato di tre ordini di grandezza in 5 anni non in 12 (= miglioramento di un fattore ~18 ogni 5 anni). Se vogliamo fare i precisi facciamolo fino in fondo :read:

Per il resto non ho assunto progresso = 0 rileggi i miei messaggi precedenti.

E se volessimo mettere i puntini sulle i, anche ammettendo fosse possibile per il 2032 usando un'estrapolazione esponenziale secca in cui si assume che Fugaku Next possa utilizzare l'architettura piu' efficiente disponibile in assoluto*, l'articolo parla di 2030.


* tra le altre cose, facendo una veloce ricerca, ho visto che Fugako nel 2020 non aveva neanche i processori con la massima efficienza in termini di GFLOPS/W di quegli anni.

Notturnia
12-09-2024, 17:25
Come ho già detto, quel parametro tecnico non è limitato, perciò non ha senso dubitare, come hai fatto, che possa crescere con un dato rateo. Infatti quel dato tecnico cresce di tre ordini di grandezza ogni 12 anni, per quanto ti possa sembrare strano.


Il supercomputer più efficiente oggi operativo fa 73 GFLOPS per watt, il che significa che con quella tecnologia già oggi servirebbero "solo" 13,7 GW per uno zettaflops. L'efficienza dei supercomputer raddoppia circa ogni 2 anni, perciò da oggi al 2032 si può stimare un consumo minimo di 13,7 / 2^4 = 0,86 GW per uno zettaflops. E' solo un'estrapolazione che presuppone che la funzione di crescita dell'efficienza resti uguale all'attuale ancora per 8 anni, ma è comunque una stima molto più ragionevole della tua, che postula progresso tecnico = zero.

molto difficile pensare che l'efficienza continui a raddoppiare ogni due anni e che non ci siano problemi per climatizzare un bestione simile.. molto ottimistico il tuo ragionamento che "basterebbe" solo 1 GW di potenza per alimentarlo

speriamo tu abbia ragione che con una sola centrale nucleare si possa gestire tutto senza fatica ma la vedo molto ottimistica la previsione riduzione di 16 volte che hai scritto tu...

frncr
12-09-2024, 19:54
Ok. Quindi é un parametro tecnico.

un miglioramento di un fattore 1000 di un parametro tecnico, di qualsiasi tipo e in qualsiasi settore, in 5 anni é pressoché impossibile
Hai affermato, mi pare, che non sarebbe possibile aumentare la potenza di un supercomputer di tre ordini di grandezza in cinque anni (intervallo di tempo che peraltro hai inventato tu), perché nessun "parametro tecnico" può crescere così (affermazione comunque arbitraria). Ti ho allora fatto notare che la potenza di un supercomputer non è determinata da un singolo "parametro tecnico" (tipo la geometria di processo, la frequenza di clock o altri) dato che sono macchine infinitamente scalabili, al punto che si potrebbe probabilmente già oggi mettere assieme un sistemone da uno zettaflops (anche se non avrebbe economicamente senso farlo). Una cosa sono i limiti tecnici, un'altra cosa sono i limiti economici.

Per il resto non ho assunto progresso = 0 rileggi i miei messaggi precedenti.

21 MW x 1.2 exaFLOPS. Ovvero per arrivare allo zetta ci vuole circa un fattore 1000.. ovvero 21 GW equivalenti a circa 21 reattori da ~1GW (Tipo AP1000, EPR1200, SRZ-1200, ABWR o APR1000).

Hai calcolato l'assorbimento di un ipotetico computer del 2030 basandoti sull'efficienza degli attuali (e nemmeno dei più efficienti), il che significa esattamente ipotizzare progresso tecnologico zero, e non serve a nulla.

Come già detto, la potenza dei supercomputer cresce circa di tre ordini di grandezza ogni 12 anni, mentre nello stesso intervallo di tempo l'efficienza cresce meno, per cui succede che ogni 12 anni i supercomputer sono circa 1.000 volte più potenti ma assorbono una potenza elettrica superiore. Questo alla lunga è chiaramente un problema, e salvo rivoluzioni tecnologiche finirà per rallentare la crescita esponenziale della potenza di calcolo di questi sistemi. L'incremento dell'efficienza pare rallentare progressivamente nei decenni, in dettaglio e salvo errori di calcolo:
- dalla soglia del teraflops a quella del petaflops l'efficienza è aumentata 278x
- dalla soglia del petaflops a quella dell'exaflops l'efficienza è aumentata 128x
- attualmente l'efficienza sta raddoppiando circa ogni 2 anni, perciò ci possiamo aspettare un incremento attorno a 60x dal 2020 al 2032.

In conclusione, almeno fino alla soglia zettaflops quello del consumo non dovrebbe essere un problema insormontabile, perché coi trend attuali gli assorbimenti di questi ipotetici futuri computer zettascale dovrebbero attestarsi ben al di sotto del GW, che immagino sia ancora una grandezza plausibile per un'infrastruttura nazionale strategica in un grande paese.

Poi, volendo fantasticare, ci saranno altri problemi come quello dello storage e della trasmissione delle immense quantità di dati che un tale sistema potrebbe processare.

E se volessimo mettere i puntini sulle i, anche ammettendo fosse possibile per il 2032, l'articolo parla di 2030.

Infatti il proposito annunciato dal MEXT è probabilmente troppo ottimistico, e del resto è un annuncio politico per cui ci sta che la sparino un po' grossa sui tempi. Per il 2032 a me parrebbe plausibile, perché sarebbe grosso modo in linea con la progressione storica. Ci sono stime più conservative che indicano il 2035 per quel traguardo. Bisogna anche vedere se il mondo, inteso come il nostro sistema di gestirlo, arriverà fino a quel periodo.

frncr
12-09-2024, 19:59
beh fugaku ha 16 Pflops per un consumo di 30 MW
Non puoi usare come metrica HPCG, sarebbe come dire che Frontier fa 14 petaflops e non 1.200. In realtà Fugaku è una macchina da 0,44 e rotti exaflops (fp64), 2 exaflops in precisione mista. E' stato il primo sistema a varcare la soglia exaflops in assoluto.


PS: ho trovato la fonte della cazzata dei 21 GW (Frontier x 1.000), era una provocazione di Lisa Su in un keynote speech di oltre un anno e mezzo fa:
https://www.hpcwire.com/2023/02/21/a-zettascale-computer-today-would-need-21-nuclear-power-plants/

Guarda caso anche lei pronosticava un sistema zettascale da 0,5 GW (per il 2034), sostenendo che consumerebbe comunque troppo e bisognerebbe modificare il trend dell'efficienza per portarlo a 100 MW.

ZeroSievert
12-09-2024, 20:05
Hai affermato, mi pare, che non sarebbe possibile aumentare la potenza di un supercomputer di tre ordini di grandezza in cinque anni (intervallo di tempo che peraltro hai inventato tu), perché nessun "parametro tecnico" può crescere così (affermazione comunque arbitraria). Ti ho allora fatto notare che la potenza di un supercomputer non è determinata da un singolo "parametro tecnico" (tipo la geometria di processo, la frequenza di clock o altri) dato che sono macchine infinitamente scalabili, al punto che si potrebbe probabilmente già oggi mettere assieme un sistemone da uno zettaflops (anche se non avrebbe economicamente senso farlo). Una cosa sono i limiti tecnici, un'altra cosa sono i limiti economici.


E continuo ad affermarlo. Quello che sei riuscito a dimostrare e' che il parametro tecnico "cosi' infinitamente scalabile" della potenza bruta in FLOPS di un supercomputer cresce al piu' di un fattore 18, e non di 1000, ogni 5 anni. E amen se il limite non e' tecnico ma economico.

E anche l'evoluzione della frequenza di clock, la quantita' di memoria o la densita' dei transistor in un IC sono limitati da fattori economici. Butti piu' soldi in R&D e hai un'evoluzione piu' rapida. Ma non viene fatto perche', esattamente come per i FLOPS dei supercomputer, non ha senso economicamente :O

E il fatto che i FLOPS di un supercomputer siano limitati da fattori economici invece che fisici/ingegneristici nulla toglie che l'usare il termine "parametro tecnico" per questi sia la dicitura corretta. Stacce :O


Hai calcolato l'assorbimento di un ipotetico computer del 2030 basandoti sull'efficienza degli attuali (e nemmeno dei più efficienti), il che significa esattamente ipotizzare progresso tecnologico zero, e non serve a nulla.

Come già detto, la potenza dei supercomputer cresce circa di tre ordini di grandezza ogni 12 anni, mentre nello stesso intervallo di tempo l'efficienza cresce meno, per cui succede che ogni 12 anni i supercomputer sono circa 1.000 volte più potenti ma assorbono una potenza elettrica superiore. Questo alla lunga è chiaramente un problema, e salvo rivoluzioni tecnologiche finirà per rallentare la crescita esponenziale della potenza di calcolo di questi sistemi. L'incremento dell'efficienza pare rallentare progressivamente nei decenni, in dettaglio e salvo errori di calcolo:
- dalla soglia del teraflops a quella del petaflops l'efficienza è aumentata 278x
- dalla soglia del petaflops a quella dell'exaflops l'efficienza è aumentata 128x
- attualmente l'efficienza sta raddoppiando circa ogni 2 anni, perciò ci possiamo aspettare un incremento attorno a 60x dal 2020 al 2032.

In conclusione, almeno fino alla soglia zettaflops quello del consumo non dovrebbe essere un problema insormontabile, perché coi trend attuali gli assorbimenti di questi ipotetici futuri computer zettascale dovrebbero attestarsi ben al di sotto del GW, che immagino sia ancora una grandezza plausibile per un'infrastruttura nazionale strategica in un grande paese.

Poi, volendo fantasticare, ci saranno altri problemi come quello dello storage e della trasmissione delle immense quantità di dati che un tale sistema potrebbe processare.

Infatti il proposito annunciato dal MEXT è probabilmente troppo ottimistico, e del resto è un annuncio politico per cui ci sta che la sparino un po' grossa sui tempi. Per il 2032 a me parrebbe plausibile, perché sarebbe grosso modo in linea con la progressione storica. Ci sono stime più conservative che indicano il 2035 per quel traguardo. Bisogna anche vedere se il mondo, inteso come il nostro sistema di gestirlo, arriverà fino a quel periodo.


Nope. Rileggi i miei messaggi e quello che stavo quotando. L'estrapolazione lineare -con l'efficienza attuale- era riferita alle dichiarazioni dell'articolo. Ovvero 1000 Frontier = ~21 reattori nucleari da 1GW. Era solo per capire da dove spuntavano fuori i numeri di questo articolo. Quindi al massimo lamentati con l'articolista :asd:

Poi posso accettare di avere fatto delle stime troppo pessimistiche sull'avanzamento tecnologico dell'efficienza che assumo essere "solo" di un fattore 4 al 2030 (usando Frontier come base) anche se tu, al contrario di me, mi sembra faccia stime troppo ottimistiche. E continuo a dubitare che che computer che arrivano all'assorbimento dell'ordine dei GW non inizino a subire dei rallentamenti della crescita per via delle richieste energetiche.

E infatti non mi stupisce che, come tu scrivi, alcuni dicano che solo nel 2035 si arrivera' allo zetta per singolo supercomputer o che per Lisa Su 500 MW per uno zettaFLOPS inizino gia' ad essere troppi.


EDIT

- attualmente l'efficienza sta raddoppiando circa ogni 2 anni, perciò ci possiamo aspettare un incremento attorno a 60x dal 2020 al 2032.

Se si prende per vero quello che dice Lisa Su l'efficienza raddoppia ogni 2.2 anni (non 2). Quindi direi piu' un fattore ~44x dal 2020 al 2032. Gli esponenziali fanno di questi scherzi. Basta una piccola variazione e la differenza sul risultato finale diventa significativa.

frncr
13-09-2024, 00:15
E continuo ad affermarlo. Quello che sei riuscito a dimostrare e' che il parametro tecnico "cosi' infinitamente scalabile" della potenza bruta in FLOPS di un supercomputer cresce al piu' di un fattore 18, e non di 1000, ogni 5 anni.

Io non ho dimostrato nulla, ho solo evidenziato che la tua affermazione circa un fantomatico "parametro tecnico" che impedirebbe di conseguire quella prestazione è una sciocchezza senza fondamento.
La capacità di calcolo dei supercomputer, come già ampiamente riportato, cresce di un fattore 1.000 ogni 12 anni circa. Invece 5, 18, 47... (tombola!) sono numeri di tua fantasia. Il che non c'entra comunque nulla con la sciocchezza di cui sopra.

Nope. Rileggi i miei messaggi e quello che stavo quotando. L'estrapolazione lineare -con l'efficienza attuale- era riferita alle dichiarazioni dell'articolo. Ovvero 1000 Frontier = ~21 reattori nucleari da 1GW. Era solo per capire da dove spuntavano fuori i numeri di questo articolo.

Nel tuo intervento non c'è alcuna traccia di ciò che dici adesso, al contrario si vede chiaramente che facevi un "calcolo realistico" (parole tue) della potenza prevista, con tanto di faccina sgomenta per il risultato. Se poi pensavi una cosa e ne scrivevi un'altra non è mia responsabilità, io ho confutato ciò che hai scritto:

IMHO forse e' piu' realistico fare i calcoli con Frontier

21 MW x 1.2 exaFLOPS. Ovvero per arrivare allo zetta ci vuole circa un fattore 1000.. ovvero 21 GW equivalenti a circa 21 reattori da ~1GW (Tipo AP1000, EPR1200, SRZ-1200, ABWR o APR1000).

Sempre numeri giganteschi comunque.. :mbe:

Poi posso accettare di avere fatto delle stime troppo pessimistiche sull'avanzamento tecnologico dell'efficienza che assumo essere "solo" di un fattore 4 al 2030 (usando Frontier come base) anche se tu, al contrario di me, mi sembra faccia stime troppo ottimistiche.

Come ho mostrato sopra gli incrementi di efficienza dei supecomputer, negli ultimi due step di 3 ordini di grandezza nelle prestazioni, sono stati di 278x e 128x, mentre quello prevedibile per il prossimo step in base al trend attuale è circa 60x. Sono dati facilmente reperibili, e la mia stima è risultata uguale a quella fatta da Lisa Su nel 2023, salvo che lei metteva al 2034 la proiezione invece io al 2032, ma poco cambia. La tua stima invece è fuori dalla realtà perché basata sulla fantasia anziché sui dati reali.

ZeroSievert
13-09-2024, 05:43
Io non ho dimostrato nulla, ho solo evidenziato che la tua affermazione circa un fantomatico "parametro tecnico" che impedirebbe di conseguire quella prestazione è una sciocchezza senza fondamento.
La capacità di calcolo dei supercomputer, come già ampiamente riportato, cresce di un fattore 1.000 ogni 12 anni circa. Invece 5, 18, 47... (tombola!) sono numeri di tua fantasia. Il che non c'entra comunque nulla con la sciocchezza di cui sopra.


Miglioramento di un fattore 1000x in 12 anni = miglioramento di un fattore 18x in 5 anni. Non sono numeri inventati da me, sono numeri forniti da te! :O tiriamo giu' l'aggressivita' e tiriamo fuori la calcolatrice :O

Io ti chiedo allora visto che sono sciocchezze: in quale settore umano si e' avuto in maniera consistente un miglioramento di fattore 1000 ogni 5 anni (ovvero la "sciocchezza" detta da me che tu non hai confutato :asd:) di qualsiasi aspetto di qualsiasi manufatto umano :O ? Magari oggi imparo qualcosa. Forse, come scritto, solo oggetti agli inizi della loro storia evolutiva che passano dalla fase concetttuale a quella commerciale.

Quello che volevo far passare e' che migliorare qualsiasi cosa di un fattore 1000 ogni 5 anni e' un'evoluzione troppo rapida e che quindi, che sia a causa di fattori fisici o economici, non si e' probabilmente mai arrivati mai a tale valore. :O

E qui stiamo parlando di microelettronica. Ovvero il settore che probabilmente ha l'evoluzione piu' rapida in assoluto nella storia dell'uomo per cui un miglioramento di un fattore 18x ogni 5 anni e' comunque colossale rispetto al resto. Al di fuori di settori connessi allo sviluppo di circuiti integrati, in quale altro settore trovi un miglioramento di un parametro di un fattore 18x ogni 5 anni?

Nel tuo intervento non c'è alcuna traccia di ciò che dici adesso, al contrario si vede chiaramente che facevi un "calcolo realistico" (parole tue) della potenza prevista, con tanto di faccina sgomenta per il risultato. Se poi pensavi una cosa e ne scrivevi un'altra non è mia responsabilità, io ho confutato ciò che hai scritto:

Mi dispiace allora se non sono stato molto chiaro. Quello che volevo fare era vedere dove venivano fuori le "21 centrali nucleari" dell'articolo. E quella non era una faccina sgomenta (:eek:). Al massimo esprimeva dubbio (:mbe:).


Entusiasmo per l'annuncio a parte, creare un supercomputer del genere comporta notevoli sfide ingegneristiche. Addetti ai lavori stimano sia necessaria un'energia spropositata per alimentare una macchina di classe zeta, pari a quella di 21 centrali nucleari.


Forse avrei dovuto scrivere qualcosa come "...E' piu' realistico usare Frontier per i calcoli fatti nell' articolo...". Oppure usare una frase completamente differente per farmi capire meglio. Ci sta.

E sono abbastanza sicuro che neanche !fazz, che ha iniziato questo tipo di calcoli, intendesse che l'evoluzione di un computer fosse = 0 visto che lui mi sembra nel settore da molto tempo e ferrato sull'argomento.

La tua stima invece è fuori dalla realtà perché basata sulla fantasia anziché sui dati reali.

Io spero che, dopo essermi chiarito molteplici volte su questo punto, non si ritorni su questo argomento visto che, ripeto, quello che confuti e' una posizione che io non ho mai difeso. E arrivare a giustificare come mai ho usato una faccina invece di un'altra mi sembra un uso non efficiente del mio tempo.

Al limite lamentati dell'articolo che butta giu' un dato poco chiaro(e evidentemente sballato) che io e !fazz abbiamo cercato d'interpretare.