HBM-PIM, la prima memoria con intelligenza artificiale a bordo è di Samsung

HBM-PIM, la prima memoria con intelligenza artificiale a bordo è di Samsung

Per la prima volta, Samsung ha integrato nella memoria HBM la capacità di gestire alcune operazioni di intelligenza artificiale. Il calcolo all'interno della memoria velocizza tutto il processo, migliorando le prestazioni e abbassando i consumi.

di pubblicata il , alle 09:41 nel canale Memorie
Samsung
 

HBM-PIM è la prima soluzione HBM (High Bandwidth Memory) dotata di capacità di calcolo per compiti di intelligenza artificiale. Sviluppata da Samsung Electronics, la nuova HBM-PIM (dove PIM sta per processing-in-memory) è destina al mondo dei datacenter e quello HPC, ma non solo: pensate ad esempio alle future auto a guida autonoma dove l'intelligenza artificiale è assoluta protagonista.

"La nostra rivoluzionaria HBM-PIM è la prima soluzione PIM programmabile per diversi carichi basati sull'intelligenza artificiale come HPC, addestramento e inferenza. Abbiamo intenzione di lavorare su questa innovazione collaborando ulteriormente con i provider di soluzioni IA per applicazioni basate su PIM ancora più avanzate", ha dichiarato Kwangil Park, vicepresidente senior per la divisione Memory Product Planning di Samsung Electronics.

L'azienda sudcoreana parlerà approfonditamente di HBM-PIM alla International Solid-State Circuits Virtual Conference (ISSCC) il 22 febbraio, ma l'azienda fa sapere che la memoria "è ora in fase di test all'interno degli acceleratori di intelligenza artificiale dai principali partner, e tutti i test di convalida dovrebbero essere completati entro la prima metà di quest'anno".

Le unità di calcolo e la memoria hanno sempre lavorato insieme, ma come unità separate, per affrontare operazioni sempre più complesse. Proprio questo aumentare dei carichi ha però evidenziato come l'approccio sequenziale alla gestione delle informazioni, con il dato che si muove costantemente avanti e indietro tra i due componenti, crei un collo di bottiglia a fronte di volumi in espansione.

HBM-PIM nasce per prendere di petto questo problema, portando la potenza di calcolo direttamente dove il dato è archiviato, "inserendo un engine IA ottimizzato per la DRAM all'interno di ogni banco di memoria (una sottounità di archiviazione), consentendo il processo parallelo e minimizzando lo spostamento del dato".

Più concretamente, quando Samsung ha applicato questa novità alla sua memoria HBM2 Aquabolt, l'azienda ha ravvisato un aumento delle prestazioni più che doppio, con una riduzione del consumo di oltre il 70%. HBM-PIM non richiede inoltre cambiamenti hardware o software, permettendo una più veloce integrazione nei sistemi esistenti.

Secondo Rick Stevens, professore dell'Argonne National Laboratory negli Stati Uniti, "HBM-PIM ha dimostrato miglioramenti degni di nota delle prestazioni e consumi in importanti classi di applicazioni di IA, perciò lavoreremo insieme per valutare le sue prestazioni su ulteriori problemi che sono d'interesse per l'Argonne National Laboratory".

3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
io78bis17 Febbraio 2021, 13:19 #1
Non capisco l'algoritmo di IA come venga caricato e quale sia il limite di grandezza
LMCH17 Febbraio 2021, 13:20 #2
HBM-PIM non richiede inoltre cambiamenti hardware o software

Ma che è ? Tecnologia magica?
Mi sa che come minimo gli servono librerie o driver ad hoc per usare le funzioni di calcolo integrate nelle memorie.
Poi che sia utilizzabile come normale RAM e che appaia così di default mi sembra ovvio.
Piuttosto, sarebbe interessante capire quali sono le funzioni eseguibili direttamente sui chip, mi sa che é tutta roba utile anche per altri tipi di applicazioni.
Gringo [ITF]17 Febbraio 2021, 17:38 #3
In pratica il micro controller che gestisce i dati della HBM-PIM ha un firmware con algoritmi AI che ottimizza la gestione in Background, fornendo gli indirizzi alla macchina richiedente come fosse classica RAM, ma ne ottimizza la gestione in "proprio", per un qualunque PC/HARDWARE non cambia nulla, si arrangia la AI al stoccaggio con meno corrente e compressioni o chissà che algoritmi usa, sarebbe una manna applicata agli SSD, che internamente userebbero una gestione trasparente all'OS velocizzando e arrangiandosi a fare Over provisioning e mappature di settori da scartare. (Magari ...avendo in mano i brevetti di mezzo mondo..sony compresa... una piccola copiatina alla gestione dell'ssd di PS5 la hanno già fatta)

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^