Nuove memorie HBM2E: bandwidth e capacità per i datacenter di domani

Nuove memorie HBM2E: bandwidth e capacità per i datacenter di domani

SK Hynix conferma di aver avviato la produzione del nuovo standard per le memorie HBM2: bandwidth incrementata e capienza raddoppiata, per gli impieghi in datacenter per l'intelligenza artificiale

di pubblicata il , alle 18:11 nel canale Memorie
HBMSK hynixNVIDIAAMD
 

SK Hynix ha annunicato di aver avviato la produzione di memorie HBM2E, standard del quale si è venuti originariamente a conoscenza circa 1 anno fa. Sino ad oggi Samsung è stato l'unico produttore di memoria impegnato in questa tipologia di soluzione, ora accesibile con modelli sviluppati anche da SK Hynix.

Lo standard HBM2E rappresenta una evoluzione di quello HBM2, High Bandwidth Memory di seconda generazione, adottato in abbinamento a GPU top di gamma. Alcune soluzioni AMD si servono di questa memoria ma il prodotto più interessante che è basato su memorie HBM2 è l'acceleratore A100 di NVIDIA:

Le memorie sviluppate da SK Hynix vengono proposte in stacks da 16GB, con pertanto una capacità doppia rispetto alle prime soluzioni HBM2 che hanno debuttato sul mercato. Più capienza, quindi, ma anche superiore velocità e bandwidth: ogni modulo può raggiungere la frequenza di 3,6 Gbps, contro un dato precedente di 3,2Gbps.

hbm2e_600.jpg

Valori di questo tipo permettono di ottenere una bandwidth di 460GB/s con uno stack da 1024pin, caratteristica che apre spazio a configurazioni molto complesse che permettono di offrire valori di bandwidth estremamente elevati. Pensiamo ad esempio ad una configurazione con 4 stack HBM2E, con i quali è a disposizione una bandwidth di 1,84TB/s.

Un risultato di questo tipo è molto interessante per impieghi in ambito professionale e datacenter: non per altro le memorie HBM2 hanno conosciuto il principale successo commerciale proprio in abbinamento a schede video pensate per l'utilizzo in server per ambiti di calcolo parallelo, Intelligenza Artificiale in primo luogo.

SK Hynix potrebbe fornire queste memorie a NVIDIA per i propri acceleratori A100, oltre a lavorare in collaborazione con AMD per nuove schede video professionali destinate all'utilizzo in supercomputer e nei sistemi HPC (High Performance Computing). In questi ambiti, del resto, l'incremento nel quantitativo di memoria abbinato alla GPU e la sua velocità hanno sempre nette ricadute in termini di maggiori prestazioni velocistiche.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^