Il sistema neuromorfico di Intel tocca i 100 milioni di neuroni, come il cervello di un piccolo mammifero

Il sistema neuromorfico di Intel tocca i 100 milioni di neuroni, come il cervello di un piccolo mammifero

Pohoiki Springs è il nuovo e più potente sistema neuromorfico di ricerca di Intel. La piattaforma, grazie a 768 chip Loihi, fornisce la capacità computazionale di 100 milioni di neuroni, quella del cervello di un piccolo mammifero.

di pubblicata il , alle 08:21 nel canale Processori
Intel
 

Intel ha annunciato Pohoiki Springs, un nuovo e potentissimo sistema neuromorfico di ricerca che fornisce una capacità di calcolo pari a quella di 100 milioni di neuroni, paragonabile al cervello di un piccolo mammifero. Pohoiki Springs è montato su rack per datacenter ed è il più grande sistema di calcolo neuromorfico di Intel finora sviluppato. Integra 768 chip neuromorfici da ricerca Loihi all'interno di uno chassis delle dimensioni di cinque server standard.

Pohoiki Springs succede a Pohoiki Beach, una piattaforma capace di una potenza di calcolo di 8 milioni di neuroni grazie a 64 chip sperimentali Loihi. Il sistema basato su cloud sarà reso disponibile ai membri della Intel Neuromorphic Research Community (INRC), ampliando il loro lavoro nel settore neuromorfico per risolvere problemi più grandi e più complessi.

"Pohoiki Springs incrementa di oltre 750 volte il nostro chip neuromorfico per la ricerca, Loihi, funzionando a un livello di potenza inferiore a 500 watt. Il sistema consente ai nostri partner di ricerca di esplorare diversi modi di accelerare i carichi di lavoro che attualmente vengono eseguiti lentamente con le architetture convenzionali, fra cui i sistemi di High-Performance Computing (HPC)", ha dichiarato spiega Mike Davies, Direttore del Neuromorphic Computing Lab di Intel.

Abbiamo già avuto modo di parlare di Loihi nei giorni scorsi, grazie a una ricerca in cui ha dimostrato di poter apprendere e riconoscere odori. I processori Loihi si ispirano al cervello umano e per questo possono elaborare determinati processi impegnativi fino a 1.000 volte più velocemente e in maniera 10.000 volte più efficiente rispetto ai processori convenzionali.

Pohoiki Springs rappresenta il passo successivo per ampliare l'uso di questo tipo di architettura per valutarne il potenziale non solo per risolvere i problemi di intelligenza artificiale, ma per una vasta gamma di problemi difficili dal punto di vista computazionale. I ricercatori di Intel ritengono che il parallelismo estremo e il segnale asincrono dei sistemi neuromorfici siano in grado di fornire decisivi miglioramenti delle prestazioni con consumi notevolmente ridotti rispetto ai computer convenzionali più avanzati oggi disponibili.

Nel mondo naturale, anche alcuni dei più piccoli organismi viventi possono risolvere problemi computazionali notevolmente complessi. Molti insetti, ad esempio, possono tracciare visivamente oggetti, spostarsi nell'ambiente ed evitare ostacoli in tempo reale, nonostante abbiano cervelli ben al di sotto di 1 milione di neuroni. Allo stesso modo, il più piccolo sistema neuromorfico di Intel, Kapoho Bay, comprende due chip Loihi con 262.000 neuroni e supporta una varietà di carichi di lavoro in edge in tempo reale.

I sistemi neuromorfici di Intel, come Pohoiki Springs, sono ancora in fase di ricerca e non sono concepiti per sostituire i sistemi di elaborazione convenzionali. Offrono ai ricercatori uno strumento per sviluppare e caratterizzare nuovi algoritmi ispirati al cervello per l'elaborazione in tempo reale, la risoluzione dei problemi, l'adattamento e l'apprendimento. Esempi di algoritmi promettenti e altamente scalabili sviluppati per Loihi includono:

  • Soddisfacimento di vincoli: i problemi di soddisfacimento di vincoli (Constraint Satisfaction Problems) sono presenti ovunque nel mondo reale, dal gioco del Sudoku alla programmazione delle linee aeree e alla pianificazione della consegna di pacchi. Richiedono la valutazione di un gran numero di potenziali soluzioni per identificarne una o alcune che soddisfano vincoli specifici. Loihi può accelerare tali problemi esplorando molte soluzioni diverse in parallelo e ad alta velocità.
  • Ricerca di grafi e schemi ricorrenti: ogni giorno le persone cercano strutture di dati basate su grafi per trovare percorsi ottimali e modelli che corrispondono accuratamente, ad esempio per ottenere indicazioni stradali o riconoscere i volti. Loihi ha dimostrato la capacità di identificare rapidamente i percorsi più brevi nei grafi e di eseguire ricerche approssimate di immagini.
  • Problemi di ottimizzazione: le architetture neuromorfiche possono essere programmate in modo tale che il loro comportamento dinamico nel tempo ottimizzi matematicamente degli obiettivi specifici. Questo comportamento può essere applicato per risolvere problemi di ottimizzazione del mondo reale, come massimizzare la larghezza di banda di un canale di comunicazione wireless o allocare un portafoglio azionario per ridurre al minimo il rischio con un determinato tasso di rendimento.
  • Informazioni sul calcolo neuromorfico: i tradizionali processori per uso generico, come le CPU e le GPU, sono particolarmente abili in compiti difficili per l'uomo, come calcoli matematici estremamente precisi, ma il ruolo e le applicazioni della tecnologia si stanno espandendo. Dall'automazione all'intelligenza artificiale e oltre, si registra la crescente necessità che i computer funzionino in modo più simile agli esseri umani, elaborando in tempo reale dati non strutturati e confusi, adattandosi al contempo al cambiamento. Questa sfida porta allo sviluppo di nuove architetture specializzate.

Il calcolo neuromorfico rappresenta quindi "un ripensamento completo dell'architettura dei computer dalle basi. L'obiettivo è di applicare le più recenti conoscenze della neuroscienza per creare chip che funzionino meno come computer tradizionali e più come il cervello umano", scrive Intel in una nota. I sistemi neuromorfici replicano il modo in cui i neuroni sono organizzati, comunicano e apprendono a livello hardware. Intel ritiene che Loihi e i futuri processori neuromorfici siano in grado di definire un nuovo modello di elaborazione programmabile per soddisfare la crescente domanda mondiale di dispositivi diffusi e intelligenti.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mith8919 Marzo 2020, 09:54 #1
articolo ILLEGGIBILE, copiato e incollato con google translate. Non sto neanche a contare gli errori, mi sono fermato a metà articolo per fastidio. Peccato perché il tema era interessante
Manolo De Agostini19 Marzo 2020, 13:46 #2
Originariamente inviato da: Mith89
articolo ILLEGGIBILE, copiato e incollato con google translate. Non sto neanche a contare gli errori, mi sono fermato a metà articolo per fastidio. Peccato perché il tema era interessante


Mah, in realtà è una nota stampa ufficiale di Intel (e penso sappiamo di cosa stanno parlando), che francamente io ho compreso. Se però non ti torna qualcosa, sei libero di chiedere. A ogni modo, l'argomento è indubbiamente complesso.
G8019 Marzo 2020, 14:07 #3
Bell'articolo, come il precedente sulle cpu Loihi. Sarei curioso di sapere come è fatta una architettura simile in paragone ad una cpu classica.
Fede19 Marzo 2020, 14:16 #4
Originariamente inviato da: Mith89
articolo ILLEGGIBILE, copiato e incollato con google translate. Non sto neanche a contare gli errori, mi sono fermato a metà articolo per fastidio. Peccato perché il tema era interessante


Come non quotarti.
pabloski19 Marzo 2020, 14:52 #5
Originariamente inviato da: G80
Bell'articolo, come il precedente sulle cpu Loihi. Sarei curioso di sapere come è fatta una architettura simile in paragone ad una cpu classica.


Ecco qua https://fuse.wikichip.org/news/2519...illion-neurons/

E' una gigantesca matrice di DSP, ottimizzati per eseguire le operazioni tipiche di un neurone leaky integrate and fire. I neuroni sono ovviamente simulati, come avverrebbe con un software su un normale pc.

Il modello lif è una buona approssimazione di quello che si sa sui neuroni, ma è ancora lontano da come un vero neurone computa i potenziali d'azione.

Quindi niente di meraviglioso e di "brain like". Sarebbe ora che le multinazionali la smettessero di usare il termine "brain like" per sparare hype a manetta.

Che poi, puoi pure avere 100 milioni di neuroni, ma se ti mancano gli algoritmi del cervello, non hai concluso comunque niente.

Tutto questo hype sta distruggendo la ricerca di base nel settore del connessionismo, perchè convince il pubblico alla larga che sia solo una questione di potenza di calcolo. Quando invece la questione è di modelli e algoritmi di apprendimento.

IL SGD fa acqua. E non è biologicamente plausibile. Cioè è l'unico modello che il cervello di sicuro non usa.
Manolo De Agostini19 Marzo 2020, 15:44 #6
Originariamente inviato da: Fede
Come non quotarti.


Ripeto, siate esplicativi... tra l'altro un altro lettore dice il contrario... Se si può soddisfare tutti meglio
G8019 Marzo 2020, 17:16 #7
Originariamente inviato da: pabloski
Ecco qua https://fuse.wikichip.org/news/2519...illion-neurons/

E' una gigantesca matrice di DSP, ottimizzati per eseguire le operazioni tipiche di un neurone leaky integrate and fire. I neuroni sono ovviamente simulati, come avverrebbe con un software su un normale pc.

Il modello lif è una buona approssimazione di quello che si sa sui neuroni, ma è ancora lontano da come un vero neurone computa i potenziali d'azione.

Quindi niente di meraviglioso e di "brain like". Sarebbe ora che le multinazionali la smettessero di usare il termine "brain like" per sparare hype a manetta.

Che poi, puoi pure avere 100 milioni di neuroni, ma se ti mancano gli algoritmi del cervello, non hai concluso comunque niente.

Tutto questo hype sta distruggendo la ricerca di base nel settore del connessionismo, perchè convince il pubblico alla larga che sia solo una questione di potenza di calcolo. Quando invece la questione è di modelli e algoritmi di apprendimento.

IL SGD fa acqua. E non è biologicamente plausibile. Cioè è l'unico modello che il cervello di sicuro non usa.


Grazie. Quindi fondamentalmente sono solo DSP....ok. Concordo sul fatto che non sia una questione di calcolo, a quest'ora altrimenti saremmo a livelli molto più avanzati di AI. Inoltre come al solito imo è comodo stimare delle capacità simulative basandosi solo sul numero di neuroni simulati, ci sono molti altri fattori che non vengono presi in considerazione sul funzionamento di un cervello e probabilmente al momento non hanno neanche idea di come simularli (dendriti, assoni e cellule gliali per fare un esempio, come pure tutto il firing sostenuto dai neurotrasmettitori ai neuroni...)
calabar20 Marzo 2020, 10:14 #8
Per arrivare quindi ad un sistema su singolo chip con un numero di neuroni paragonabile al cervello umano (con tutte le differenze del caso ovviamente) hanno solo bisogno di aumentare la densità di un milioncino di volte.
Direi che anche sull'hardware siamo lontanucci.

Ad ogni modo capisco che si parli di cervello in modo improprio, però rimangono comunque progetti interessanti che portano ad un nuovo approccio per risolvere certi tipi di problema e da cui in futuro si potrebbe trarre beneficio.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^