IBM sulle tracce del supercomputer senziente

IBM sulle tracce del supercomputer senziente

Primi passi verso il computer senziente? Sembra proprio di sì, complice lo stanziamento del governo USA per un progetto targato IBM, volto a realizzare un supercomputer che sappia interpretare informazioni sensoriali e prendere decisioni in autonomia. Un passo verso la singolarità tecnologica?

di pubblicato il nel canale Sistemi
IBM
 

Potenza e progresso

Ogni supercomputer è differente dall'altro. Abbiamo chiamato in causa BlueGene perché il migliore attualmente sulla piazza in fatto di architettura per la simulazione del funzionamento del cervello. Ad oggi però, il più potente in circolazione è Roadrunner, sempre di casa IBM che, a fronte di un quantitativo di core inferiore ("solo" 6480 dual-core AMD Opteron e 12960 Cell core) , è in grado di esprimere una potenza di calcolo di 1,6 Petaflop di picco. Stiamo parlando di 1,6 x 1015 operazioni in virgola mobile al secondo, per essere più chiari.

Raymond Kurzweil, esperto mondiale nel campo dell'intelligenza artificiale, ha stimato che un supercomputer dovrebbe arrivare a circa 1019 operazioni in virgola mobile al secondo per tentare di ricreare uno scenario simile alla più banale operazione che il cervello umano può compiere. In pratica, 10.000 volte la potenza di Roadrunner. Una moderna scheda video come la ATI Radeon HD4870 svilluppa al suo meglio circa 1,2 Teraflop, ovvero 1012 operazioni in virgola mobile al secondo. Facendo un esempio grossolano per non farsi venire un mal di testa peggiore di quello dei tecnici IBM, è come se nel nostro cervello girassero alla massima potenza 10 milioni di ATI Radeon HD4870 in IperCrossFire (consumando tra l'altro molto, molto meno).

Questi numeri per capire come il primo passo non sarà abbozzare il funzionamento del cervello dell'uomo, ma quello di un più abbordabile gatto. Certo, la potenza è un problema, così come il tradurre i dettami dei neurobiologi in qualcosa di fattibile nella pratica. Serve roba potente, ma anche molto piccola per non impiegare un intera città USA per creare un PC che faccia le fusa.

Ecco dunque che il campo delle nanotecnologie sarà cruciale, perché permetterà di realizzare componentistica adeguata soprattutto in ottica futura. Quello che IBM sta creando potrebbe essere un flop, usato nella connotazione volgare senza riferimenti alla virgola mobile, ma anche un grande successo. Servirà un supercomputer strutturato alla BlueGene, con la potenza di Roadrunner moltiplicata per un numero x di volte ancora da quantificare, il tutto tenendo conto che al crescere dei nodi/neuroni le connessioni/sinapsi cresceranno in maniera esponenziale. Il tutto con scienziati "pazzi" alle spalle che ti dicono cosa fare.

La posta in palio è enorme: realizzare un supercomputer che fra qualche anno potrebbe auto-apprendere, capire che fa freddo, prendere decisioni e dirci che abbiamo ai piedi due calzini differenti, mostrando disappunto. Stiamo ovviamente scherzando, ma la frontiera tecnologica è più o meno quella. L'interazione fra unità di calcolo e sensori sta diventando un vero e proprio tormentone nei baluardi dell'avanguardia tecnologica. Auguri. E' passato qualche mese dall'IDF, ma confermo il mio entusiasmo misto a paura. E voi?

154 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
icoborg26 Novembre 2008, 14:34 #1
marco71 è richiesto con urgenza^^
sim8926 Novembre 2008, 14:40 #2
Originariamente inviato da: icoborg
marco71 è richiesto con urgenza^^


Prima l'ho visto nel thread di terminator, vedrai che prima o poi arriva

Comunque veramente interessante l'articolo.
Evangelion0126 Novembre 2008, 14:56 #3
hasta la vista, baby...
OmbraShadow26 Novembre 2008, 15:01 #4
Macchè 40 anni??? Vedrete che entro breve qualche bimbominkia rintanato nel suo scantinato, riutilizzando dei vecchi pentium III coppermine 1 GHz messi in rete ottica, usando un suo nuovo linguaggio di programmazione autoreplicante, collegando il tutto ad Internet, creerà un enorme computergrid che sarà avviato alle 23:59 del 20/12/20012...alle 00:00 del 21 diverrà autosensiente e autonomo...alle 00:01 del 21 darà ordine ai bombardieri di alzarsi in volo...

ok, ok, debbo smetterla di vedermi Terminator SCC, mi sà che mi fà male
Stevejedi26 Novembre 2008, 15:03 #5
Beh, è scontato che prima o poi succederà di creare un Intelligenza Artificiale... speriamo solo che non sia la solita cattiva che vuole sterminare la razza umana.

Sono questi articoli che mi fanno comprendere quanto ci stiamo avvicinando al punto di "CREARE la VITA". È vero, usiamo i mattoni che c'ha dato già Dio, però ci avviciniamo :P

P.s. simpaticissimo il paragone del PC enorme che fa le fusa.

Quoto OmbraShadow riguardo al possibile bimbominkia.
7stars26 Novembre 2008, 15:10 #6
di sicuro non permetterei ad un computer di prendere decisioni importanti...
sim8926 Novembre 2008, 15:12 #7
Fino a quanto avevano detto che era possibile arrivare utilizzando trucchi/migliorie? 10nm?
Cosa utilizzeranno dopo?

EDIT: wikipedia dice:

L'evoluzione del processo a 22 nm dovrebbe essere quello a 16 nm che forse potrebbe anche essere l'ultimo stadio evolutivo per quanto riguarda i circuiti costruiti con il silicio in quanto a tali dimensioni, si è molto vicini al "limite fisico" del materiale.


11 nanometer
The 11 nanometer (11 nm) node is the technology node following 16 nm node. The exact naming of this technology node comes from the International Technology Roadmap for Semiconductors (ITRS). According to the 2007 edition of this roadmap, by the year 2022, the half-pitch (i.e., half the distance between identical features in an array) for a DRAM should be 11 nm, although Intel's "Architecture and Silicon Cadence Model" places it closer to the year 2015. Intel's Pat Gelsinger claims that Intel sees a 'clear way' towards the 11nm node.

While the roadmap has been based on the continuing extension of CMOS technology, even this roadmap does not guarantee that silicon-based CMOS will extend that far. This is to be expected, since the gate length for this node may be smaller than 6 nm, and the corresponding gate dielectric thickness would scale down to a monolayer or even less. Reported estimates indicate that transistors at these dimensions are significantly affected by quantum tunneling. As a result, non-silicon extensions of CMOS, using III-V materials or nanotubes/nanowires, as well as non-CMOS platforms, including molecular electronics, spin-based computing, and single-electron devices, have been proposed. Hence, this node marks the practical beginning of nanoelectronics.

Due to the extensive use of ultra-low-k dielectrics such as spin-on polymers or other porous materials, it is unlikely conventional lithography, etch or even chemical-mechanical polishing processes can continue to be used, because these materials contain a high density of voids or gaps. At scales of ~ 10 nm, quantum tunneling, especially through gaps, becomes a significant phenomenon. Controlling gaps on these scales by means of electromigration can produce interesting electrical properties themselves.
demon7726 Novembre 2008, 15:18 #8
Credo che per vedere risultati tamgibili in termini di intelligenza artificiale, considerando la mole di calcoli necessaria, si dovrà attendere la nascita definitiva ed il pieno sviluppo dei processori quantistici..

Questi, almeno sulla carta, hanno possibilità infinitamente maggiori rispetto agli odierni processori..
sim8926 Novembre 2008, 15:23 #9
Originariamente inviato da: demon77
Credo che per vedere risultati tamgibili in termini di intelligenza artificiale, considerando la mole di calcoli necessaria, si dovrà attendere la nascita definitiva ed il pieno sviluppo dei processori quantistici..

Questi, almeno sulla carta, hanno possibilità infinitamente maggiori rispetto agli odierni processori..


Tempo fa lessi un articolo (su pi mi pare) dove si diceva che possono funzionare soltanto a temperature prossime allo 0 assoluto... E' stato risolto questo problema?
tazok26 Novembre 2008, 15:45 #10
mi spiace, ma secondo me è uno dei pochi articoli davvero dozzinali che ho letto ultimamente su hwu.

non spiega niente, ci sono solo informazioni che ormai sanno anche i bambini..il tutto condito con "ottimismo alla blade runner"..

1)singolarità tecnologica: come-perchè-dovrebbe accadere.
2)realtà della programmazione odierna: limiti e tentativi
3)i problemi etici riguardo il totale che è maggiore della "somma delle singole parti": autoapprendimento
4)parte psicologica: la scintilla della vita, la parola di qualcuno sul campo..
5)parte lol: skynet,matrix e bla bla

un articolo inerente queste tematiche va fatto con tutti i crismi, non stiamo qui a parlare della ultima vga

vabe spero che ci rifaremo presto con aggiornamenti vari

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^