Dal Minnesota arriva la CRAM, la memoria che vuole rendere l'IA meno affamata di energia

La domanda globale di energia legata ai datacenter IA aumenta giorno dopo giorno. Un team di ricercatori dell'Università del Minnesota potrebbe avere una soluzione innovativa per frenare la crescente sete di energia dell'IA: benvenuta CRAM.
di Manolo De Agostini pubblicata il 30 Luglio 2024, alle 15:21 nel canale MemorieSi parla spesso dell'uso di energia spropositato legato ai datacenter che spingono i servizi di intelligenza artificiale, quindi una memoria capace di ridurre il consumo in tali applicazioni potenzialmente di un fattore "almeno pari a 1000" non può che essere di grande interesse.
I ricercatori della University of Minnesota Twin Cities hanno pubblicato un paper scientifico (su Nature) che ci svela i dettagli della CRAM, ovvero la Computational Random-Access Memory.
Comunemente, i processi legati all'IA (e non solo) trasferiscono i dati tra i chip logici e la memoria, consumando una grande quantità di energia e di potenza. Con la CRAM messa a punto presso l'Università del Minnesota, però, i dati non lasciano mai la memoria, con un tangibile calo dei consumi.
La CRAM esegue i calcoli direttamente all'interno delle celle di memoria, utilizzando in modo efficiente la struttura dell'array, eliminando così la necessità di trasferimenti di dati lenti e ad alta intensità energetica.
"Questo lavoro è la prima dimostrazione sperimentale di CRAM, in cui i dati possono essere elaborati interamente all'interno dell'array di memoria senza la necessità di lasciare la griglia in cui un computer memorizza le informazioni", ha dichiarato Yang Lv, ricercatore post-dottorato del Dipartimento di Ingegneria elettrica e informatica dell'Università del Minnesota e primo autore dell'articolo.
La IEA, International Energy Agency, ha previsto che l'uso di energia da parte dell'IA raddoppierà dai 460 terawattora (TWh) del 2022 ai 1000 TWh del 2026. All'incirca l'equivalente dell'energia consumata dal Giappone.
Secondo i ricercatori, un acceleratore di inferenza per il machine learning basato su CRAM potrebbe garantire un miglioramento dell'ordine di 1.000 volte nell'efficienza energetica. Un altro test ha evidenziato un potenziale risparmio energetico di 2.500 e 1.700 volte rispetto ai metodi tradizionali. "Il nostro concetto iniziale di utilizzare le celle di memoria direttamente per il calcolo, 20 anni fa, era considerato una follia", ha dichiarato Jian-Ping Wang, tra gli autori dello studio.
Questa ricerca "sfrutta" quella sui dispositivi Magnetic Tunnel Junctions (MTJ), un dispositivo spintronico che sfrutta lo spin degli elettroni piuttosto che la carica elettrica per memorizzare i dati, fornendo un'alternativa più efficiente ai chip tradizionali basati sui transistor.
Laddove una RAM usa quattro o cinque transistor per codificare uno 0 oppure un 1, un MTJ è in grado di fare altrettanto a una frazione dell'energia, con una maggiore velocità e resilienza agli ambienti difficili.
La CRAM abbatte il muro tra la computazione e la memoria, che costituisce il collo di bottiglia della tradizionale architettura di von Neumann dove processore e memoria sono separati ed è richiesto un continuo spostamento di dati tra i due.
"Come substrato di calcolo in-memory digitale estremamente efficiente dal punto di vista energetico, CRAM è molto flessibile in quanto i calcoli possono essere eseguiti in qualsiasi posizione dell'array di memoria. Di conseguenza, possiamo riconfigurare CRAM per soddisfare al meglio le esigenze prestazionali di una serie diversificata di algoritmi di intelligenza artificiale”, ha dichiarato Ulya Karpuzcu, coautore dello studio e professore associato presso il Dipartimento di ingegneria elettrica e informatica dell'Università del Minnesota. "È più efficiente dal punto di vista energetico rispetto ai tradizionali elementi costitutivi dei sistemi di IA odierni".
Il team ha ora in programma di collaborare con i leader dell'industria dei semiconduttori per fornire dimostrazioni su più ampia scala. Il percorso che porterà la CRAM a uscire dal laboratorio è ancora lungo, ma da tempo i produttori di memoria parlano di portare le capacità di calcolo all'interno dei loro dispositivi, quindi che si tratti di CRAM o di altro vedremo sicuramente cambiamenti importanti nei prossimi anni.
1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".