I chip che mimano il cervello possono gestire compiti di AI consumando meno energia

I chip che mimano il cervello possono gestire compiti di AI consumando meno energia

La TU Graz, insieme a Intel, ha svolto uno studio da cui è emerso che la tecnologia di calcolo neuromorfico - ispirata al nostro cervello - può essere dalle 4 alle 16 volte più efficiente di altri modelli di AI applicati su hardware tradizionale.

di pubblicata il , alle 12:01 nel canale Processori
Intel
 

Il calcolo neuromorfico, ovvero quella branca della tecnologia che si ispira al cervello umano per applicarne i principi alle architetture informatiche, potrebbe rivelarsi fondamentale per lo sviluppo di intelligenze artificiali avanzate. I ricercatori della TU Graz e degli Intel Labs, all'interno del progetto Human Brain Project (HBP), hanno dimostrato che la tecnologia neuromorfica consuma molta meno energia nella gestione di grandi reti di deep learning rispetto ad altre architetture.

La richiesta energetica rappresenta un ostacolo importante verso un'ampia diffusione delle tecnologie che plasmano la cosiddetta "intelligenza artificiale". Per questo motivo, studiando il modo in cui il cervello processa moltissime informazioni con un ridotto dispendio energetico, da sempre si è ipotizzato che la tecnologia neuromorfica potesse occuparsi dell'IA in modo molto più efficiente di altre soluzioni.

Una cosa però è desumerlo, un'altra è confermarlo. In uno studio pubblicato su Nature Machine Intelligence, i ricercatori si sono focalizzati su algoritmi che funzionano con processi temporali. Ad esempio, il sistema doveva rispondere a domande su una storia raccontata in precedenza e cogliere le relazioni tra oggetti o persone dal contesto.

Il test è stato svolto su 32 chip Intel Loihi posti su una board chiamata Nahuku. "Il nostro sistema è da due a tre volte più economico rispetto ad altri modelli di intelligenza artificiale", ha spiegato Philipp Plank, studente di dottorato presso l'Istituto di informatica teorica di Graz e dipendente di Intel.

Soprattutto, il sistema si è dimostrato "dalle quattro alle sedici volte più efficiente dal punto di vista energetico di altri modelli di AI su hardware tradizionale", ha aggiunto Plank spiegando che ulteriori miglioramenti sul fronte dell'efficienza dovrebbero arrivare migrando i modelli su Loihi 2, ultima generazione del chip Intel con interconnessioni tra chip e chip molto più veloci.

"I chip di ricerca Intel Loihi promettono di portare miglioramenti nell'AI, specialmente riducendone gli alti costi energetici", ha dichiarato Mike Davies, direttore del Neuromorphic Computing Lab di Intel. "Il nostro lavoro con TU Graz fornisce maggiori prove che la tecnologia neuromorfica può migliorare l'efficienza energetica degli attuali carichi di deep learning ripensando la loro implementazione dalla prospettiva della biologia".

Nella loro rete neuroformica i ricercatori hanno riprodotto un presunto meccanismo di memoria del cervello. "Studi sperimentali hanno dimostrato che il cervello umano può immagazzinare informazioni per un breve periodo di tempo anche senza attività neurale, ovvero nelle cosiddette 'variabili interne' dei neuroni. Le simulazioni suggeriscono che un meccanismo di affaticamento di un sottoinsieme di neuroni è essenziale per questa memoria a breve termine", ha spiegato Wolfgang Maass, supervisore del dottorato di Philipp Plank presso l'Istituto di informatica teorica di Graz.

Seppur manchi una prova diretta poiché queste variabili interne non possono ancora essere misurate, ciò significa che la rete deve solo testare quali neuroni sono affaticati per ricostruire quali informazioni ha elaborato in precedenza. In altre parole, le informazioni precedenti vengono memorizzate nella "non attività dei neuroni" e la non attività consuma meno energia.

I ricercatori hanno collegato due tipi di reti di deep learning per questo scopo. Le reti neurali di feedback sono responsabili della "memoria a breve termine" e tramite moduli ricorrenti filtrano possibili informazioni rilevanti dal segnale di ingresso e le memorizzano. Una rete feed-forward determina quindi quali delle relazioni trovate sono molto importanti per risolvere il compito in questione. Le relazioni prive di significato vengono escluse, i neuroni si attivano solo in quei moduli in cui sono state trovate informazioni rilevanti. Questo processo alla fine porta al risparmio energetico.

"Si prevede che le strutture neurali ricorrenti forniranno grandi vantaggi per le applicazioni in esecuzione su hardware neuromorfico in futuro", ha affermato Davies. "L'hardware neuromorfico come Loihi è particolarmente adatto per facilitare i modelli veloci, sparsi e imprevedibili dell'attività di rete che osserviamo nel cervello e di cui abbiamo bisogno per applicazioni di intelligenza artificiale più efficienti dal punto di vista energetico".

1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Gringo [ITF]25 Maggio 2022, 13:28 #1
Cancellato dall'Utente (Off-Topic)

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^