IBM sulle tracce del supercomputer senziente

Primi passi verso il computer senziente? Sembra proprio di sì, complice lo stanziamento del governo USA per un progetto targato IBM, volto a realizzare un supercomputer che sappia interpretare informazioni sensoriali e prendere decisioni in autonomia. Un passo verso la singolarità tecnologica?
di Alessandro Bordin pubblicato il 26 Novembre 2008 nel canale SistemiIBM
Reverse engeneering applicata al cervello
La grande novità del progetto è dovuta al fatto che tutto nasce operando una sorta di reverse-engeneering delle tecniche di apprendimento del cervello umano, che è di fatto il più studiato. E' qui che entrano in gioco i neurobiologi e gli psicologi, che di fatto dettano legge all'interno del progetto. Non siamo quindi nella situazione in cui un computer preesistente come BlueGene viene utilizzato per simulare, ma si intende realizzare qualcosa di totalmente nuovo partendo dai sensori, creando un percorso a rovescio dove i tecnici cercano di realizzare il centro di calcolo vero e proprio adattandolo agli "stimoli" esterni.
Un cervello umano sano è in grado di ricevere informazioni da vista, tatto, olfatto, gusto e udito, oltre a relazionarsi in modo corretto con le coordinate spazio e tempo. Il nostro cervello è inoltre in grado di gestire e far interagire con estrema efficacia tutte queste informazioni, ad un "prezzo" in termini energetici assolutamente vantaggioso.
Diverse le sfide che si troverà di fronte il nuovo computer senziente. Non è tanto il numero di neuroni da simulare che preoccupa, quanto la gestione delle sinapsi virtuali, ovvero le connessioni fra i neuroni/nodi di calcolo. E' l'attivazione, inibizione o i percorsi dei neurotrasmettitori a livello di sinapsi a fare nel nostro cervello una macchina fenomenale. I tecnici e gli ingegneri IBM dovranno quindi impegnarsi in questa nuova sfida concettuale, ovvero quella di raccogliere un quantitativo di dati impressionante in arrivo da sensori di ogni tipo, da far confluire ad un unico centro di calcolo seguendo però regole dettate dai neurobiologi.
Tutto questo quindi dovrà tradursi in algoritmi del tutto nuovi, che prevedano la creazione di percorsi e connessioni fra alcuni nuclei di calcolo del PC escludendone altri, o mettere in connessione alcuni di questi nuclei e farli interagire con altri gruppi contenenti informazioni differenti.
Viene il mal di testa solo a pensare al lavoro che attende questo gruppo di
lavoro, ma non tutto è da ricreare da zero. Il progetto dell'anno scorso, la
simulazione del cervello di topo per intenderci, ha sfruttato l'architettura del
supercomputer BlueGene per fare qualcosa di simile. Questo supercomputer è
strutturato a nodi, ognuno dei quali costituito da un circuito stampato con
associata della memoria DRAM e pensato per eseguire un'operazione ben precisa.
Queste unità vengono chiamate ASIC, e nel nostro caso specifico possiamo
immaginarli come i singoli neuroni, per la cronaca realizzati con due processori
PowerPC differenti a seconda delle versioni BlueGene, in continuo aggiornamento.
Quanti nodi ci sono in BlueGene? Molti, anche in questo caso variabili, ma
nell'ordine dei 300.000 core.
Ogni nodo di BlueGene vanta tre reti di comunicazione in parallelo, nonché un
sistema operativo Linux-based estremamente semplificato. La gestione del
supercomputer può quindi prevedere la gestione di particolari segnali per un
determinato gruppo di nodi, mentre delegare ad altri gruppi l'elaborazione di
altre informazioni. I gruppi possono poi essere in mutua relazione sfruttando le
differenti connessioni messi a disposizione dell'architettura. Queste
connessioni e questi percorsi si avvicinano in modo approssimativo a quanto
avviene a livello delle sinapsi neuronali.
Questo mostro, BlueGene, ha fatto fatica a simulare in maniera grossolana il funzionamento del cervello di topo. Serve di più, molto di più. Ecco entrare in scena allora la teoria di quanto effettivamente serva per andare oltre.