Samsung, alla buon'ora: dopo un secolo fornirà memoria HBM3E a NVIDIA

Samsung, alla buon'ora: dopo un secolo fornirà memoria HBM3E a NVIDIA

Samsung ha ottenuto la certificazione di NVIDIA per i suoi chip HBM3E a 12 layer dopo mesi di tentativi che hanno permesso alla rivale SK hynix di diventare predominante nel settore. Il via libera prepara il terreno alla prossima sfida tecnologica: l'implementazione di HBM4, previsto nel 2026.

di pubblicata il , alle 09:31 nel canale Schede Video
NVIDIAHBMSamsung
 

Samsung ha ottenuto l'attesa certificazione da parte di NVIDIA per la sua memoria HBM3E a 12 layer, un passaggio fondamentale che segna il ritorno del produttore coreano tra i fornitori di soluzioni ad alta banda destinati ai chip per l'intelligenza artificiale. Il via libera arriva a circa 18 mesi dal completamento dello sviluppo, dopo diversi tentativi non riusciti di rispettare gli stringenti requisiti tecnici richiesti da NVIDIA.

Il risultato ha immediati riflessi anche sul piano finanziario: il titolo Samsung ha registrato un incremento superiore al 5%, a testimonianza della fiducia degli investitori nella capacità dell'azienda di colmare il divario con i principali concorrenti, SK hynix e Micron, già attivi nelle forniture a NVIDIA.

Le memorie HBM3E rappresentano l'attuale vertice di questa tecnologia: con 12 layer e una banda di circa 1,2 TB/s per stack, trovano impiego nei più avanzati acceleratori AI, tra cui NVIDIA B300/GB300 e AMD Instinct MI350. Samsung aveva già avviato forniture limitate verso AMD.

Secondo fonti di settore, le prime consegne a NVIDIA saranno contenute nei volumi, dal momento che SK hynix e Micron hanno già saturato gran parte della domanda. Per Samsung, dunque, il valore della certificazione non è immediatamente commerciale, quanto piuttosto strategico: si tratta di un riconoscimento di credibilità tecnologica.

Lo scenario competitivo si sta già spostando però già sulla prossima generazione: HBM4. Lo standard JEDEC prevede il raddoppio dell'ampiezza del bus e velocità di trasferimento fino a 8 Gbps per pin, ma NVIDIA ha chiesto ai fornitori di spingersi oltre i 10 Gbps. Samsung ha mostrato prototipi capaci di raggiungere 11 Gbps, superando SK hynix e ponendo ulteriore pressione su Micron.

HBM4 dovrebbe garantire fino a 2 TB/s di banda per stack, capacità per chip fino a 64 GB e consumi ridotti del 20-30% grazie a processi produttivi più avanzati. Questa memoria sarà parte integrante della prossima generazione di GPU NVIDIA, basata sull'architettura Rubin, successiva all'attuale Blackwell.

Samsung ha dichiarato di essere in trattative non solo con NVIDIA, ma anche con Google e Broadcom, e punta ad avviare la produzione in volumi già nella prima metà del 2026.

Il settore della memoria HBM si conferma dunque uno dei campi più strategici del mercato dei semiconduttori: chi riuscirà ad assicurarsi la leadership in HBM4 avrà un ruolo determinante nel supportare la prossima generazione di calcolo AI ad alte prestazioni.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^