Micron ha avviato la produzione in volumi di memoria HBM3E
Micron ha avviato la produzione in volumi di memoria HBM3E per gli acceleratori di NVIDIA, da H200 a GH200, entrambi dotati di 141 GB di memoria. Le soluzioni di Micron prevedono 24 GB di capacità e una bandwidth superiore a 1,2 TB/s.
di Manolo De Agostini pubblicata il 27 Febbraio 2024, alle 06:51 nel canale MemorieMicronHBM
Micron Technology ha annunciato di aver avviato la produzione in volumi di memoria HBM3E (High Bandwidth Memory 3E), ribattezzata dall'azienda anche HBM3 Gen2, la memoria che muove le ultime soluzioni di intelligenza artificiale di NVIDIA, H200 e GH200, in arrivo nel corso del secondo trimestre.
È una buona notizia, oltre che per NVIDIA e Micron, anche per il mercato stesso, e per diverse ragioni: i due update annunciati da NVIDIA offrono maggiori prestazioni rispetto alle versioni precedenti e potrebbero alleviare, seppur solo in parte, la situazione di pesante shortage che il settore dell'IA sta vivendo.

La memoria HBM3E della società statunitense offre velocità superiori a 9,2 gigabit al secondo (Gb/s) per pin, garantendo una bandwidth maggiore di 1,2 terabyte al secondo (TB/s). Micron riporta anche un'efficienza maggiore di circa del 30% circa rispetto alle offerte concorrenti.
Per quanto riguarda la capacità, Micron realizza soluzioni da 24 GB con processo 1-beta che consentono a NVIDIA di installare sull'acceleratore H200 ben 141 GB di memoria a 4,8 TB/s, "quasi il doppio della capacità e una larghezza di banda 2,4 volte maggiore rispetto al predecessore NVIDIA A100".
HBM, la memoria dell'intelligenza artificiale, senza AMD Fiji non sarebbe nata: il racconto di Raja Koduri
Accanto alla GPU NVIDIA ci sono sei package da 24 GB, per un totale di 144 GB, anche se solo 141 GB sono effettivamente sfruttabili. L'incarnazione precedente dell'acceleratore - tuttora in commercio - si affida a HBM3 da 16 GB, per un totale di 96 GB di cui solo 80 GB accessibili.
Micron, però, non si ferma qui: la società ha già campionato soluzioni HBM3E 36 GB 12-High. Probabilmente ne sapremo di più alla NVIDIA GPU Technology Conference di NVIDIA che si terrà a metà marzo, appuntamento in cui ci si aspetta un annuncio sul prossimo acceleratore Blackwell B100. Infine, è bene ricordare che Micron ha già piani ben definiti per quanto riguarda la produzione di memoria HBM4 e HBM4E.










Le soluzioni FSP per il 2026: potenza e IA al centro
AWS annuncia European Sovereign Cloud, il cloud sovrano per convincere l'Europa
Aetherflux e Lockheed Martin insieme per inviare energia elettrica senza cavi dallo Spazio sulla Terra e la Luna
SpaceX sta proseguendo i test della terza versione del razzo spaziale Starship, lancio forse a febbraio
Axiom Space ha mostrato un nuovo video delle tute spaziali AxEMU per le missioni Artemis
Realme: la trasformazione in sub-brand di OPPO è colpa della Cina?
PlayStation 6 si farà attendere: è tutta colpa della crisi delle memorie?
BWT Alpine chiude la prima tornata di presentazioni: una F1 diversa?
Beyond Good & Evil 2 non è stato cancellato: Ubisoft lo considera una 'priorità'
Qualcomm: il CEO ha guadagnato quasi 30 milioni di dollari nel 2025
AMD: 'Non importa cosa dice Intel, i migliori processori AI sono i nostri'
Non è solo colpa del mercato: il (vero?) motivo dietro i rincari delle GeForce RTX
3 smartphone ai prezzi più bassi di sempre: ecco i 10 prodotti TOP di questo weekend Amazon, con belle novità
Pwn2Own Automotive 2026 da record: 76 zero-day e la sicurezza delle auto sotto esame
Più watt, più bassi e subwoofer incluso: tre soundbar super economiche da non perdere su Amazon
Xiaomi POCO F8 Pro, un top di gamma a 549€: Snapdragon 8, 12GB/512GB, teleobiettivo, audio Bose e super batteria








3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoPer lo shortage di Nvidia sara' risolto quando inizieranno ad inserire NPU ovunque e la GPU sara' solo di extra supporto o lavoro parallelo.
Per lo shortage di Nvidia sara' risolto quando inizieranno ad inserire NPU ovunque e la GPU sara' solo di extra supporto o lavoro parallelo.
le npu non servono a nulla vanno una frazione della velocita di una gpu entry level quindi te ne fai poco nulla solo la gpu ha le prestazioni necessarie
Le HBM3E sono viutali perche hanno una grande banda con una latenza molto bassa non esiste altra tecnologia comparabile
Secondo me questo è solo un periodo di transizione,le nuove tecnologie su cui stanno lavorando promettono di fare meglio e di consumare di meno, finché può,Nvidia deve fare cassa,ma pure AMD e pure Intel se riescono a prendersi una fettina di mercato di acceleratori IA.
Per ora gli acceleratori di Nvidia sono quelli che attualmente sono pronti sia a livello di hardware e di software,quindi pappa già pronta e calda all' uso e il mercato compra quello ma già i clienti stanno ordinando gli acceleratori AMD anche se in proporzione bassa,ma è sempre tecnologia in parte derivata dalle GPU.
Quando sul mercato verranno introdotte nuove architetture,le cose cambieranno, è solo questione di tempo.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".