HBM-PIM, la prima memoria con intelligenza artificiale a bordo è di Samsung

Per la prima volta, Samsung ha integrato nella memoria HBM la capacità di gestire alcune operazioni di intelligenza artificiale. Il calcolo all'interno della memoria velocizza tutto il processo, migliorando le prestazioni e abbassando i consumi.
di Manolo De Agostini pubblicata il 17 Febbraio 2021, alle 09:41 nel canale MemorieSamsung
HBM-PIM è la prima soluzione HBM (High Bandwidth Memory) dotata di capacità di calcolo per compiti di intelligenza artificiale. Sviluppata da Samsung Electronics, la nuova HBM-PIM (dove PIM sta per processing-in-memory) è destina al mondo dei datacenter e quello HPC, ma non solo: pensate ad esempio alle future auto a guida autonoma dove l'intelligenza artificiale è assoluta protagonista.
"La nostra rivoluzionaria HBM-PIM è la prima soluzione PIM programmabile per diversi carichi basati sull'intelligenza artificiale come HPC, addestramento e inferenza. Abbiamo intenzione di lavorare su questa innovazione collaborando ulteriormente con i provider di soluzioni IA per applicazioni basate su PIM ancora più avanzate", ha dichiarato Kwangil Park, vicepresidente senior per la divisione Memory Product Planning di Samsung Electronics.
L'azienda sudcoreana parlerà approfonditamente di HBM-PIM alla International Solid-State Circuits Virtual Conference (ISSCC) il 22 febbraio, ma l'azienda fa sapere che la memoria "è ora in fase di test all'interno degli acceleratori di intelligenza artificiale dai principali partner, e tutti i test di convalida dovrebbero essere completati entro la prima metà di quest'anno".
Le unità di calcolo e la memoria hanno sempre lavorato insieme, ma come unità separate, per affrontare operazioni sempre più complesse. Proprio questo aumentare dei carichi ha però evidenziato come l'approccio sequenziale alla gestione delle informazioni, con il dato che si muove costantemente avanti e indietro tra i due componenti, crei un collo di bottiglia a fronte di volumi in espansione.
HBM-PIM nasce per prendere di petto questo problema, portando la potenza di calcolo direttamente dove il dato è archiviato, "inserendo un engine IA ottimizzato per la DRAM all'interno di ogni banco di memoria (una sottounità di archiviazione), consentendo il processo parallelo e minimizzando lo spostamento del dato".
Più concretamente, quando Samsung ha applicato questa novità alla sua memoria HBM2 Aquabolt, l'azienda ha ravvisato un aumento delle prestazioni più che doppio, con una riduzione del consumo di oltre il 70%. HBM-PIM non richiede inoltre cambiamenti hardware o software, permettendo una più veloce integrazione nei sistemi esistenti.
Secondo Rick Stevens, professore dell'Argonne National Laboratory negli Stati Uniti, "HBM-PIM ha dimostrato miglioramenti degni di nota delle prestazioni e consumi in importanti classi di applicazioni di IA, perciò lavoreremo insieme per valutare le sue prestazioni su ulteriori problemi che sono d'interesse per l'Argonne National Laboratory".
3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMa che è ? Tecnologia magica?
Mi sa che come minimo gli servono librerie o driver ad hoc per usare le funzioni di calcolo integrate nelle memorie.
Poi che sia utilizzabile come normale RAM e che appaia così di default mi sembra ovvio.
Piuttosto, sarebbe interessante capire quali sono le funzioni eseguibili direttamente sui chip, mi sa che é tutta roba utile anche per altri tipi di applicazioni.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".