Così SK hynix vuole rivoluzionare l'intelligenza artificiale: HBM4, CXL e AiM in primo piano

Così SK hynix vuole rivoluzionare l'intelligenza artificiale: HBM4, CXL e AiM in primo piano

Al recente OCP Global Summit 2025 di San Jose, SK hynix ha mostrato la propria gamma di soluzioni di memoria dedicate all'intelligenza artificiale e ai datacenter. Dall'innovativa HBM4 a 12 strati fino alle soluzioni AiM e CXL, l'azienda coreana punta a definire nuovi standard per l'elaborazione AI su larga scala.

di pubblicata il , alle 09:31 nel canale Memorie
SK hynix
 

SK hynix sta registrando risultati record, tanto da aver già "fatto sold out" per quanto riguarda gli ordini di memoria - HBM, NAND e DRAM - per l'intero 2026. Certo, il boom dell'AI aiuta, ma non meno importante è il lavoro d'innovazione che la casa sudcoreana sta facendo in questi anni.

Al recente al OCP Global Summit 2025 di San Jose l'azienda ha portato un'ampia vetrina di soluzioni di memoria pensate per la nuova era dell'AI. Sotto il tema "MEMORY, Powering AI and Tomorrow", il produttore ha presentato la sua offerta completa per datacenter e sistemi AI, evidenziando la strategia "full-stack" che mira a un'integrazione sempre più stretta tra memoria, calcolo e storage.

Il fulcro dell'esposizione è stata la memoria HBM4, la nuova generazione di memoria ad alta banda sviluppata e prodotta in volumi già da settembre 2025. Si tratta del primo chip HBM a 12 layer, con 2.048 canali I/O - il doppio rispetto a HBM3E - capace di offrire una larghezza di banda superiore e un'efficienza energetica migliorata del 40%. Una soluzione destinata ai sistemi di calcolo AI di fascia ultra-alta.

Accanto alla nuova HBM4 era presente anche la HBM3E da 36 GB, la più capiente del settore, integrata nell'offerta NVIDIA GB300 Grace Blackwell, insieme a modelli 3D che illustravano le tecnologie TSV e MR-MUF impiegate nell'assemblaggio.

Un'altra novità di rilievo è stata la AiMX card, equipaggiata con chip GDDR6-AiM (Accelerator-in-Memory). In una demo dal vivo, SK hynix ha mostrato un server con quattro AiMX e due NVIDIA H100, impegnato nell'esecuzione di Llama 3 di Meta tramite vLLM. Il sistema ha evidenziato l'ottimizzazione della memoria per operazioni di "attention", migliorando l'efficienza nei carichi memory-bound e riducendo i tempi di accesso alla KV-cache, elemento cruciale per le interazioni multi-utente nei chatbot di nuova generazione.

Lo stand ha inoltre ospitato una sezione dedicata alle soluzioni CXL (Compute Express Link), tra cui il modulo CMM-Ax, in grado di aggiungere capacità di calcolo alla memoria condivisa. Una demo con il cloud Petasus AI di SK Telecom ha mostrato come la memoria "pooled" CXL permetta a più processori e GPU di condividere risorse senza necessità di rete tradizionale.

Sul fronte DRAM, SK hynix ha esposto i moduli DDR5 RDIMM e MRDIMM realizzati con processo 1c (10 nm, sesta generazione), insieme a versioni 3DS DDR5 e Tall MRDIMM pensate per i server di prossima generazione. Completava la panoramica la gamma di eSSD per data center, con modelli PS1010 E3.S e U.2 su NAND 176 layer e PEB110 E1.S a 238 layer, fino al PS1101 E3.L da 245 TB basato su NAND QLC a 321 layer, attualmente la più densa del settore.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^