HBM3, SK hynix parla di una bandwidth di 665 GB/s per stack

HBM3, SK hynix parla di una bandwidth di 665 GB/s per stack

La sudcoreana SK hynix scrive sul proprio sito che la nuova generazione delle memorie HBM, le HBM3, saranno in grado di processare oltre 665 GB di dati al secondo con una velocità di I/O pari a 5,2 Gbps. Al momento le nuove memorie sono in via di sviluppo.

di pubblicata il , alle 08:41 nel canale Memorie
SK hynix
 

La memoria HBM (High Bandwidth Memory) ha trovato principalmente applicazione nel mondo dei datacenter e in quello professionale, meno sulle schede video consumer dove, salvo rari casi, i produttori preferiscono optare per le varie generazioni di GDDR, meno costose e in grado di offrire buone prestazioni.

Dopo un passaggio abbastanza rapido tra HBM e HBM2, si pensava a un altrettanto veloce salto alle HBM3, ma i produttori hanno proposto una generazione chiamata HBM2E comunque in grado di alzare l'asticella delle prestazioni, della bandwidth e della capacità. Tra l'altro, la JEDEC - l'organismo che sovrintende gli standard - non ha ancora ratificato le HBM3.

Ciononostante, le HBM3 sono in via di sviluppo, e la sudcoreana SK hynix ha svelato i suoi piani in merito restituendoci qualche informazione in più sulle potenzialità della nuova generazione. Sul suo sito si legge: "SK hynix leads the HBM market with ambitions for even faster HBM solutions: Our HBM3, under development, will be capable of processing more than 665GB of data per second at 5.2Gbps in I/O speed".

Se con le HBM2E di SK hynix è possibile toccare una bandwidth di 460 GB/s con uno stack da 1024 pin, con le HBM3 ci si spingerà fino a 665 GB/s. Salirà anche la velocità di input e output, che passerà dai 3,6 Gbps delle HBM2E ai 5,2 Gbps delle HBM3. Potrebbe però essere solamente un inizio, infatti alcune aziende si aspettano che le HBM3 scalino fino a 7,2 Gbps.

Questi valori sono da intendersi per singolo stack, ma gli acceleratori per datacenter basati su GPU o FPGA si avvalgono di HBM con diversi stack e bus molto ampi per una bandwidth complessiva di diversi terabyte al secondo. L'ultima incarnazione di Nvidia A100, con 80 GB di memoria HBM2E a 3,2 Gbps su bus a 5120 bit, ad esempio, garantisce una bandwidth di 2 TB/s. Con la nuova HBM3 ci si spingerà ben oltre, almeno a 2,66 TB/s, e con tutta probabilità lo vedremo nei futuri acceleratori di AMD, Nvidia e Intel destinati al mondo dei supercomputer exascale.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^