Il futuro della memoria HBM è già scritto? HBM8 con raffreddamento integrato e bandwidth mostruosa

Il futuro della memoria HBM è già scritto? HBM8 con raffreddamento integrato e bandwidth mostruosa

Una roadmap sviluppata da KAIST e TERA potrebbe anticipare a grandi linee l'evoluzione della memoria HBM fino al 2038. Dal 2026 con HBM4 fino alla HBM8, le future generazioni promettono capacità e prestazioni senza precedenti, ma anche consumi elevatissimi, spingendo l'adozione di sistemi avanzati di raffreddamento e interconnessione per l'AI e i datacenter.

di pubblicata il , alle 07:01 nel canale Memorie
HBM
 

Le istituzioni accademiche sudcoreane KAIST e TERA hanno recentemente pubblicato un'ampia panoramica sulle prospettive future della memoria HBM (High Bandwidth Memory), delineando un'evoluzione tecnologica che potrebbe segnare il prossimo decennio dell'elaborazione ad alte prestazioni.

Clicca per ingrandire

Il materiale, diffuso attraverso una presentazione condivisa da Wccftech, propone una roadmap che si estende fino al 2038 e che include le specifiche tecniche previste per gli standard HBM5, HBM6, HBM7 e HBM8. HBM4, infatti, è uno standard già definito e che vedremo dal 2026 a bordo delle nuove GPU Rubin di NVIDIA e Instinct MI400 di AMD. Le caratteristiche principali includono 2048 linee I/O, una bandwidth di 2 TB/s, 24 Gbit di capacità per die e 36/48 GB per HBM, per un consumo per singolo package di 75 Watt.

Clicca per ingrandire

L'arrivo di HBM5 è previsto entro il 2029, il che significa che lo standard potrebbe spingere GPU come NVIDIA Feynman. Questo standard dovrebbe offrire 4096 linee I/O, una larghezza di banda pari a 4 TB/s e una capacità massima per modulo HBM fino a 80 GB. Sarà inoltre necessaria la transizione verso sistemi di raffreddamento a immersione, data la potenza stimata di 100 Watt per modulo.

Clicca per ingrandire

HBM6, attesa per il 2032, promette un balzo significativo: data rate fino a 16 Gbps, 8 TB/s di bandwidth e capacità per modulo HBM a 120 GB. Il consumo stimato per ciascun stack è di 120 Watt, con soluzioni di raffreddamento a immersione e impiego di interposer in vetro e interconnessioni multi-tower.

Clicca per ingrandire

Clicca per ingrandire

HBM7 e HBM8, previste rispettivamente per la metà e la fine del prossimo decennio, si spingeranno ovviamente oltre. HBM7 dovrebbe portare la bandwidth a 24 TB/s, con un massimo di 192 GB di capacità per HBM e 8192 linee I/O.

HBM8, la cui introduzione è stimata per il 2038, punterebbe invece a 64 TB/s, 16384 linee I/O e una capacità per modulo HBM di 240 GB. Le potenze in gioco dovrebbero toccare i 180 Watt per modulo, valore per cui si prevedono architetture completamente nuove con raffreddamento integrato e configurazioni a 32 moduli HBM in sistemi multi-GPU da oltre 15.000W complessivi.

Clicca per ingrandire

Il documento, benché interessantissimo e redatto da ricercatori a conoscenza dei futuri sviluppi, rappresenta una sorta di traccia ancora in fase studio; in poche parole, siamo lontani dalla ratifica della JEDEC e molte cose potrebbero cambiare.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
coschizza16 Giugno 2025, 08:17 #1
incredibile consuma molto piu la memopria che la gpu ma non di poco x volte di piu
paolo.oliva217 Giugno 2025, 22:48 #2
Però il consumo si genera nel cambio di stato del transistor...
Certamente con quella banda e con dati in arrivo/uscita, ad una X frequenza, quanti sono i transistor che cambiano stato? Sono un totale di TB al secondo..

Comunque non è corretto il confronto che fai sul consumo, perché stai confrontando il consumo di una VGA attuale con i 200W di una HBM8 del 2035... Ma quanto consumerà una VGA del 2035 rispetto ad una odierna?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^