View Full Version : Dall'Università di Rochester il primo chip tridimensionale
Redazione di Hardware Upg
17-09-2008, 13:57
Link alla notizia: http://www.hwupgrade.it/news/cpu/dall-universita-di-rochester-il-primo-chip-tridimensionale_26537.html
Un gruppo di ricercatori mette a punto e realizza un nuovo modello di processore che si sviluppa anche in senso verticale: è il futuro della computazione?
Click sul link per visualizzare la notizia.
io ce l'ho più lungo....il processore!
gabi.2437
17-09-2008, 14:08
Detta così sembra l'uovo di colombo
NON vengono citati però i problemi di dissipazione del calore, se con un chip bidimensionale ci son quei dissipatori, se ci metti tanti strati...
captnemo
17-09-2008, 14:09
CHE GIOIA!
ho fatto la mia tesi di laurea in microelettrronica proprio su questo tema (l'ho discussa a febbraio!!)
Il lavoro che ho presentato verteva sulla possibilitá di realizzare sensori di particelle ionizzate.
A mio modesto avviso, permetterá di allungare il periodo di vita delle attuali tecnologie al silicio.
ciao!
Andrea
angel110
17-09-2008, 14:11
resta comunque il problema del calore! più layer metti più c'è calore da dissipare.
Però non sarebbe male come tecnologia se applicata a memorie FLASH.
Si otterrebbero SSD più capienti. Ma chissà a che prezzo...
Probabilmente, per il calore, faranno come avevano ipotizzato poco tempo fa, alla IBM..dei micro canali a liquido, che passano tra i vari processozi/core..
Bhe se è come la penso io non dovrebbero esserci
problemi ... spero.
Immaginate una motherboard con le schede a coltello.
In questo caso lo smaltimento del calore non sarebbe
un problema.
Sarei curioso di sapere
come hanno fatto l'impilamento layer.
i circuiti attuali sono già multistrato, quindi si sviluppano già in 3 dimensioni.
non è chiaro in cosa questi si differenzino
Notturnia
17-09-2008, 14:17
ah.. l'evoluzione ^^
iniziavo a preoccuparmi.. troppo tempo con cose simili riviste.. era ora di un salto di qualità :-D
Detta così sembra l'uovo di colomboCosa che non è, visto che ci stanno pensando da una vita. Credo che il concetto risalga addirittura agli anni '60, solo che allora (e per molto tempo in seguito) non conveniva perderci tempo. Ora le cose possono essere diverse...
molti chip sono passivi............
non esistono solo CPU e GPU e NB,e cmq se prendete la vostra mobo ci sono tantissimi chip, solo 3 hanno dissipatore. Se pensate al resto dell'elettronica ci sono tanti impieghi, dove il calore si dissipa senza le soluzioni a cui ci hanno abituato a pensare in ambito PC.
PsYcHo 23
17-09-2008, 14:42
x citty75
molto semplice: qui siu parla di 1 processore formato da +processori impilati uno sopra l'altro e costruiti in modo da operare come fossero 1 solo ed unico processore, nn solo, addirittura il "cubo" pare sia stato studiato x riuscire a destinare ogni area o layer diverso ad operazioni diverse il tutto simultaneamente!
l'esempio della difficoltà di progettazione calza a pennello! credo che costruendo un cubo ed impiegando bus ottici ed un nuovo sistema di raffreddamento a canali d'aria,se ne sentiva parlare qualke mese fa,si possa raggiungere 1 livello di potenza di calcolo strabiliante!!! il problema sarà la complessità del progetto!
OmbraShadow
17-09-2008, 15:00
Ok, allora quando sarà (chissà quando...) torneremo ai chip con una cartuccia stile Slot 1...una unica cartuccia con chip e sistema di raffreddamento integrato
Così come hanno fatto con gli HD stanno facendo pure con i chip, io spero di un bel boost.
Masamune
17-09-2008, 15:46
la dissipazione potrebbe essere un problema relativo solo ad alcune realtà.
pensate ad un processore da pda o di un dispositivo dove il singolo core praticamente non genera una quantità di calore importante. è possibile moltiplicare le performance senza preoccuparsi del surriscaldamento.
certo, per una cpu classica il problema c'è eccome, però il mondo non gira tutto intorno alle cpu.
leddlazarus
17-09-2008, 15:59
x citty75
molto semplice: qui siu parla di 1 processore formato da +processori impilati uno sopra l'altro e costruiti in modo da operare come fossero 1 solo ed unico processore, nn solo, addirittura il "cubo" pare sia stato studiato x riuscire a destinare ogni area o layer diverso ad operazioni diverse il tutto simultaneamente!
l'esempio della difficoltà di progettazione calza a pennello! credo che costruendo un cubo ed impiegando bus ottici ed un nuovo sistema di raffreddamento a canali d'aria,se ne sentiva parlare qualke mese fa,si possa raggiungere 1 livello di potenza di calcolo strabiliante!!! il problema sarà la complessità del progetto!
scusate ma non vedo la differenza se non progettuale e costruttiva dagli attuali multicore tipo phenom o nehalem.
già adesso si potrebbe con i software giusti usare i core per funzioni parallele e specifiche.
qualche anno fa quando la tecnologia multicore era solo agli albori, si prevedeva già chip con + core con utilizzi specifici: esempio nei giochi dove 1 core si pensava dedicato solo all'AI. Il problema sono i software non l'hardware.
se pensate che stiamo facendo sempre le stesse cose da 8 anni, con processori diventati 3-4 volte + potenti e nessuno se ne lamenta.
non fraintendetemi però intendevo l'uso comune del 90% degli utenti.
certo che software dedicati tipo rendering 3d, videoediting, ne hanno giovato molto, ma sono i soli.
che ce ne facciamo di tanta potenza? per navigare con ie?
leddlazarus
17-09-2008, 16:04
Così come hanno fatto con gli HD stanno facendo pure con i chip, io spero di un bel boost.
bhe la tecnologia degli hd è vecchia come il cucco, ed ormai sono diventati un vero collo di bottiglia.
l'unica novita' in questo campo sono gli ssd.
Bellissimi i commenti sul calore, mi vedo questi ingegneri che hanno pensato proprio a tutto, raccolto milioni per la sperimentazione, reclutato le migliori menti e poi leggendo questi commenti esclamano: oh no il calore!!! non ci avevamo pensato!!!
Evidentemente se hanno già fatto un prototipo funzionante a 1,4 ghz forse avranno inventato anche un sistema per dissipare il calore no?
x leddlazarus
tanta potenza serve principalmente per lavorare più velocemente, progettare, fare simulazioni, far girare software e sistemi operativi sempre più semplici e umani (un giorno entreremo a casa e daremo dei comandi vocali ad un computer col quale dialogheremo per esepio).
che poi molti hanno dei supercomputer per macinare benchmark o aprire explorer in un millisecondo è solo un effetto collaterale della tecnologia.
Non dicono purtrppo come hanno fatto a realizzare un ulteriore layer di active sopra il principale. Ne' specialmente se il sistema ha una serie di FEOL (linee attive di transistori) cui segue un unico BEOL (le interconnessioni), oppure se c'e' un'intero circuito FEOL+BEOL sopra un altro (quindi sopra un altro FEOL+BEOL)...
All'inizio leggendo avevo creduto parlassero del processore 3-state...
Indubbiamente è una soluzione molto valida ai limiti della miniaturizzazione. Mi chiedo quale sia la tecnologia minima da impiegare nella sua produzione...
Per chi parla di calore: non credo che sia un problema così critico.
Mi spiego. Qui si parla di tecnologia alternativa ai limiti della miniaturizzazione, quindi applicabile teoricamente su tecnologie già a 16-22 nm. Alla fine inserendo dei nanotubi tra gli strati di polimeri adesivi si possono creare dei reticoli per la fuga del calore...
http://media.bestofmicro.com/,G-L-158709-3.jpg
Inoltre, essendo 3D, è possibile "inserire" il processore nella base del dissipatore sfruttandone anche le superfici laterali.
Il problema di questa tecnologia non era mettere i componenti uno sopra l'altro per problemi di spazio, ma farli comunicare efficientemente!
Leggete anche "IBM Scientists Demonstrate Liquid Cooling Process for 3D Stacked Chips" (IBM Scientists Demonstrate Liquid Cooling Process for 3D Stacked Chips).
Qui (http://www.eurekalert.org/pub_releases/2008-09/uor-f3p091508.php) potete trovare l'intervista ad uno dei progettisti
mastrosulfur
17-09-2008, 17:22
Secondo me il problema non sarà tanto calore sì calore no, quanto il fatto che una topologia tridimensionale in realtà non introduce di per sé un nuovo paradigma di calcolo. le porte logiche e gli assunti logici che implementano funzionano uguale sia in 2d sovrapposti che in 3d. Le asserzioni del portavoce, insomma, mi paiono un po' sensazionalistiche ... mettere assieme rete viaria di stati uniti cina e india? beh un enorme cas*no ... che copre esattamente la stessa superficie delle tre reti separate :D
CaFFeiNe
17-09-2008, 18:23
il problema del calore e chi l'ha detto? ricordo di un brevetto IBM che andrebbe bene per un utilizzo simile, se non ricordo male faceva passare un liquido in dei microcanali ramificati nel chip, che si occupavano del raffreddamento...portandolo molto velocemente in superficie
azz aegon non avevo letto il tuo post...
quindi QUOTO
mastro anche te hai ragione, alla fine non è una vera e propria rivoluzione, come quando annunciarono il sistema ternario, o i primi annunci di processori quantistici ;)
ma cmq è una grossa evoluzione se pensi che tra un pentium 1 e un core2duo, cambia: decine di set di istruzioni, qualche pipeline in piu', e poco altro :asd:
sempre e solo colpa della retrocompatibilita'... è per quello che i processori di oggi, che tanti fanboy acclamano, non sono altro che pentium con processo produttivo migliorato,e una gestione un po' migliore....
facciamo una rivoluzione totale
abbandoniamo l'x86, una delle peggiori architetture esistenti ;)
ministro
17-09-2008, 18:29
non credo ci siano problemi di calore..
se non sbaglio tempo fa è apparsa una news su HWUP che parlava
di nanotubi in carbonio per la dissipazione, inseribili all'interno del chip stesso..
marchigiano
17-09-2008, 19:51
Il problema di questa tecnologia non era mettere i componenti uno sopra l'altro per problemi di spazio, ma farli comunicare efficientemente!
infatti mi sa che la news è questa, non tanto fare il multistrato, ma creare circuiti logici in 3D per avere maggiori possibilità con nuovi set di istruzioni sempre più complicati, cioè un intrecciamento pauroso che aprirebbe molte nuove strade, quasi un cervello biologico...
finché non vedo roba concreta non ci credo.
un conto è progettare un modello sperimentale che operi in un certo campo come previsto e pensato da chi lo ha ideato, un conto è poi applicarlo all'informatica in generale e adeguarlo a tutte le possibili esigenze e casistiche.
Comunque sembra interessante.
Ciao... leggendo tutto questo mi è venuto in mente un aneddoto simpatico.
Qualche decennio fa, durante la corsa verso lo spazio, USA e Russia facevano a gara a chi lo aveva + grosso...uno dei tanti problemi era: come fanno gli astronauti a scrivere nello spazio? Le normali penne a inchiostro, senza gravità, non funzionavano.
Gli USA spesero bei soldi x costruire delle penne speciali da gravità 0.
Cosa avevano fatto in Russia?? Avevano dato agli astronauti delle normalissime matite... quelle si che scrivono anche a testa in giù!
Cosa voglio dire......a volte si perde tempo dietro finti problemi......
Ecco una lettura interessante sul vero futuro dei processori:
http://www.privacy.it/hofmann20010924.html
Dopo averlo letto guardate in fondo bene la data
ALEXDAIIi
18-09-2008, 01:31
Non sono sicuramente un esperto del settore, ma credo che la novità e quindi la potenzialità da sviluppare, sia quella del calcolo a più dimensioni, non nel senso della sovrapposizione dei sistemi di calcolo (quindi semplice moltiplicazione della quantità contemporana delle operazioni lineari possibili nel minor spazio occupato), ma piuttosto nello sviluppo di un sistema complesso che contemporaneamente opera su più livelli indefinitamente interconnessi.
Tale sistema, in cui le elaborazioni spaziano in canali e connessioni paragonabili per similitudine a quello dei neuroni cerebrali (certo non ancora per le possibilità infinite di questi che, come è risaputo, asseconda degli stimoli indotti nel sistema, scelgono e addirittura creano i canali che le informazioni devono percorrere), permetterà elaborazioni non solo logico-matematiche, ma in un certo senso logico-deduttive, essendo gli stessi risultati delle elaborazioni di calcolo adoperabili in corso di esecuzione da altri sistemi che le faranno proprie smistandole ad altri sistemi che ... ecc. ecc.
Il limite di questa nuova "rete tridimenzionale" di calcolo è ovviamente quello che, per funzionare, dovrà essere strutturata sempre come "chiuso e definito a priori", ovvero dovrà avere comunque una sua logica interna, mentre è noto che il sistema neurale umano è un sistema "aperto e non definito a priori", ovvero è un sistema in cui la logica di funzionamento, che pur esiste, non è preordinata, ma si forma in un certo senso "autonomamente".
PS: l'ora è tarda ... avrò detto un mare di c......?
straquotone per ALEXDAIIi !!!
e come qualcuno aveva già accennato, qs potrebbe essere il punto di partenza per poter sviluppare una logica diversa.
non si tratta di calore, potenza elaborativa o simili, ma di approcciare i problemi con una logica differente rispetto a quella dell'attuale calcolo computerizzato che non fa altro che limitarsi a 01+01=10 e passare al calcolo successivo (spero che gli espertoni del settore informatico possano perdonare qs mia estrema semplificazione)
speriamo bene
angel110
20-09-2008, 15:56
Non sono sicuramente un esperto del settore, ma credo che la novità e quindi la potenzialità da sviluppare, sia quella del calcolo a più dimensioni, non nel senso della sovrapposizione dei sistemi di calcolo (quindi semplice moltiplicazione della quantità contemporana delle operazioni lineari possibili nel minor spazio occupato), ma piuttosto nello sviluppo di un sistema complesso che contemporaneamente opera su più livelli indefinitamente interconnessi.
Tale sistema, in cui le elaborazioni spaziano in canali e connessioni paragonabili per similitudine a quello dei neuroni cerebrali (certo non ancora per le possibilità infinite di questi che, come è risaputo, asseconda degli stimoli indotti nel sistema, scelgono e addirittura creano i canali che le informazioni devono percorrere), permetterà elaborazioni non solo logico-matematiche, ma in un certo senso logico-deduttive, essendo gli stessi risultati delle elaborazioni di calcolo adoperabili in corso di esecuzione da altri sistemi che le faranno proprie smistandole ad altri sistemi che ... ecc. ecc.
Il limite di questa nuova "rete tridimenzionale" di calcolo è ovviamente quello che, per funzionare, dovrà essere strutturata sempre come "chiuso e definito a priori", ovvero dovrà avere comunque una sua logica interna, mentre è noto che il sistema neurale umano è un sistema "aperto e non definito a priori", ovvero è un sistema in cui la logica di funzionamento, che pur esiste, non è preordinata, ma si forma in un certo senso "autonomamente".
PS: l'ora è tarda ... avrò detto un mare di c......?
Si secondo me hai detto un sacco di caz....! Senza offesa s'intende.
Quello di cui parli tu, si può fare anche con la tecnologia ad 1 layer,
non è necessario che il processore abbia la stessa "forma fisica tridimensionale dei neuroni del cervello", bastano i normali transistor e farli funzionare a mo di rete neuronale o in altro modo che ricalcano gli studi sull'intelligenza artificiale.
Aggiungo... quello intendi tu già lo fanno (con risultati non certo paragonabili al cervello umano) con i comuni computer basta far girare un sofware che simuli una rete neuronale e che apprenda poco alla volta la conoscenza.
L'articolo di cui sopra parla semplicemente di una nuova tecnologia di realizzazione dei processori cioè di mettere uno sopra l'altro i layer per risparmiare superficie e quindi miniaturizzare il processore.
p.s.
Ribadisco i problemi di calore questa è una tecnologia che salva spazio, ma che produce lo stesso calore della precendente.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.