View Full Version : Intel: processo produttivo a 45 nanometri
Redazione di Hardware Upg
26-01-2006, 10:32
Link alla notizia: http://www.hwupgrade.it/news/cpu/16236.html
Intel presenta il primo chip realizzato con processo produttivo a 45 nanometri, che caratterizzerà la base dei chip di futura generazione a partire dalla seconda metà del 2007
Click sul link per visualizzare la notizia.
miiii... non ci posso credere!
bartolino3200
26-01-2006, 10:48
Intel col cambio di politica e l' abbandono del netburst, sta tirando fuori gli artigli e devo ammettere che lo sta facendo bene.
Qual'è il limite fisico di miniaturizzazione?
diabolik1981
26-01-2006, 10:53
Qual'è il limite fisico di miniaturizzazione?
Mi pare 18 nanometri, poi si passa a livello subatomico.
Sarebbe interessante sapere se hanno sviluppato "in casa" il processo produttivo a 45n o se lo hanno fatto in collaborazione con altre aziende. Nel primo caso, di sicuro lo vederanno e ci faranno piú soldi che non con la vendita dei processori stessi :O
zanardi84
26-01-2006, 10:54
Dove arriveremo? Un chip grosso quanto un granello di sabbia?
Un passo in avanti che non può che portare benefici!
Non avrà i migliori processori del momento, ma Intel è sempre molto attiva nel campo delle innovazioni, e di questo bisogna proprio prendere atto. Brava!
Bouba_Diop
26-01-2006, 10:55
e i 90nm dovevano cambiare la vita, e i 65nm dovevano cambiare la vita alla seconda... qualcosa mi fa pensare che pure i 45nm, per noi, non cambieranno di sicuro la vita.
Cambieranno solo gli introiti (in positivo naturalmente) dei chips-maker. Se prima costruivano 1000 cpu con x silicio, adesso ne otterrano 1100 o più con la stessa quantità; e il loro enorme tornaconto ce lo spacciano come manna dal cielo.
Comunque ben vengano queste nuove tecnologie:)
ciao
minchiele
26-01-2006, 10:55
Ma in teoria i 45 nanometri non dovrebbero essere la lunghezza del canale, cioé la distanza tra source e drain?
Rubberick
26-01-2006, 11:04
eh bella domanda... nn ricordo se ha a che fare con una sorta di "impacchettamento" pero' anche io ricordo che il numero di processo produttivo era legato alla lunghezza del canale...
JohnPetrucci
26-01-2006, 11:05
e i 90nm dovevano cambiare la vita, e i 65nm dovevano cambiare la vita alla seconda... qualcosa mi fa pensare che pure i 45nm, per noi, non cambieranno di sicuro la vita.
Cambieranno solo gli introiti (in positivo naturalmente) dei chips-maker. Se prima costruivano 1000 cpu con x silicio, adesso ne otterrano 1100 o più con la stessa quantità; e il loro enorme tornaconto ce lo spacciano come manna dal cielo.
Comunque ben vengano queste nuove tecnologie:)
ciao
Concordo.
L'unico vantaggio, cmq non trascurabile dovrebbe essere il miglioramento delle temperature di esercizio della cpu e quindi anche migliori possibilità di overclock. Aspettiamo che escano ste cpu e quindi le recensioni per appurare se Intel ha creato un procio rivoluzionario, io sono cmq fiducioso anche se credo che Amd risponderà prontamente e dovrebbe spuntarla, seppur con cpu a 65nm.
Di sicuro attualmente i 45nm sono già un passo importante ed innovativo.
melomanu
26-01-2006, 11:18
Ma in teoria i 45 nanometri non dovrebbero essere la lunghezza del canale, cioé la distanza tra source e drain?
si esatto, è la lunghezza del canale :)
riguardo la notizia: boh, come altri dicono, già i 90 nm dovevano essere il salto nella nuova era, quando invece...
credo sia meglio aspettare e vedere i reali effetti che avrà questo processo, sulle cpu che lo useranno...
incrociando le dita, sperando che si inizi a guardare anche al lato consumi, e non solo alle prestazioni.
Non è un processore, è SRAM! Per il processore a 45 nm ci vuole ancora del tempo!
xsatoshix
26-01-2006, 11:36
Il prossimo passo? Nel mirino si intravedono i 32nm, con ogni probabilità stravolgendo l'attuale tecnologia applicata in questo campo con l'introduzione di transistor 3D non planari, allo studio da tempo e attesi per il 2009.
mi ero sempre chiesto come mai non avessero mai fatto dei chip tridimensionali (tipo dei cubetti :D )... implicitamente ecco la risposta, tecnologicamente non era ancora possibile :) cmq, il vero passo avanti lo si avrà non con un semplice cambiamento di tecnologia produttiva (65,45,32) ma proprio con questo tipo diverso di approccio alla realizzazione di chip. se qualcuno ne sa qualcosa in più mi può dare qualche link per approndire l' argomento :D
ciauz
scusate ma nel mondo dell'informatica un anno e mezzo è un abisso di tempo e mostrare adesso quello che si produrrà nella seconda metà del 2007 non mi pare niente di innovativo, anzi! Attualmente INtel non è in grado di produrre grossi volumi di chip, sram o cpu a 45nm e quindi non c'è nessun progresso dal lato pratico. E' solo un prototipo quello che han mostrato e non trovando nessun riscontro nel mondo dei PC mi pare proprio un qualcosa di veramente poco entusiasmante!
-=DennyX=-
26-01-2006, 11:53
È a dir poco impressionante l'ordine di grandezza a cui possono lavorare i moderni sistemi di fotolitografia... Ormai si parla di processori con MILIARDI di transistor..
L'evoluzione in questo campo è quasi incredibile.
In nanometri si misura il diametro degli ATOMI, non so se mi spiego. :)
(un atomo di idrogeno - quindi il più piccolo - è largo ~0,1 nm se non erro)
minchiele
26-01-2006, 11:55
Il prossimo passo? Nel mirino si intravedono i 32nm, con ogni probabilità stravolgendo l'attuale tecnologia applicata in questo campo con l'introduzione di transistor 3D non planari, allo studio da tempo e attesi per il 2009.
mi ero sempre chiesto come mai non avessero mai fatto dei chip tridimensionali (tipo dei cubetti :D )... implicitamente ecco la risposta, tecnologicamente non era ancora possibile :) cmq, il vero passo avanti lo si avrà non con un semplice cambiamento di tecnologia produttiva (65,45,32) ma proprio con questo tipo diverso di approccio alla realizzazione di chip. se qualcuno ne sa qualcosa in più mi può dare qualche link per approndire l' argomento :D
ciauz
All´universitá dove lavoro un gruppo di miei colleghi sta giá sviluppando prototipi di chip tridimensionali con piú di 5 piani di transistor!!!! :sofico:
Qual'è il limite fisico di miniaturizzazione?
1 nm, ossia piu' o meno il diametro di un atomo, ma per il gate di un transistor fisico ce ne vogliono ben piu' di 1, in lunghezza, dovendo avere la proprieta' di essere isolante/conduttore data dal drogaggio di atomi con funzione di elettro-conduttori interposti.
28-22 nm e' piu' realistico (forse 16, con degli ipotetici futuri trattamenti isolanti); a 0.1 nm gia' siamo alla dimensione di una molecola d'acqua (che e' relativamente piccola).
piu' e' piccolo il gate, piu' se ne possono mettere in unita' di superficie, piu' alta sara' la densita' dei transistor;
piu' e' corto il gate, meno energia ci vuole per farlo diventare da isolante a non isolante;
piu' sono vicini i gate e i contatti per il gate, piu' ci sono interferenze;
piu' ci sono interferenze, piu' proprieta' isolante deve avere il gate, o pui' alta dev'essere la differenza tra' potenziale isolante/conduttore;
per aumentare la differenza, si aumenta l'energia necessaria alla transizione;
piu' aumenta l'energia, piu' interferenze vengono prodotte tra' gate e gate e tra' contatto/contatto...
il SOI aumenta l'isolazione, garantendo un'abbassamento del potenziale elettrico necessario alla transizione da stato isolante a stato conduttore
(piu' o meno, a grandi linee, e da quanto sappia io)
DevilsAdvocate
26-01-2006, 12:17
bella cosa lo 0.45 , speriamo porti dei vantaggi energetici/termici ai processori
intel visto che lo 0.65 sembra essere servito a poco,finora....
Mah... si parla minimo di un anno e mezzo... non mi sembra quindi un grande passo avanti... per allora anche i concorrenti saranno lì...
per enrico
Un anno e mezzo diventa un abisso proprio per questo tipo di progressi hardware; quelli software sono altrettanto importanti, ma sono un po' più lenti (ci sono talmente tanti linguaggi e metodi di scrittura del software... e c'è in giro così tanto software "vecchio" ed anche "antico" (qualcuno si ricorda il COBOL?!?) che cambiarlo tutto è costosissimo).
per -=DennyX=-
Si, l'atomo di idrogeno è grande 0,1 nm (= 1 angstrom), altri atomi possono arrivare a 4-5 angstrom, ma in tecnologia vengono talvolta utilizzati strati di spessore minore di un singolo atomo per modificare le proprietà delle superfici dei materiali.
^TiGeRShArK^
26-01-2006, 13:04
scusate ma nel mondo dell'informatica un anno e mezzo è un abisso di tempo e mostrare adesso quello che si produrrà nella seconda metà del 2007 non mi pare niente di innovativo, anzi! Attualmente INtel non è in grado di produrre grossi volumi di chip, sram o cpu a 45nm e quindi non c'è nessun progresso dal lato pratico. E' solo un prototipo quello che han mostrato e non trovando nessun riscontro nel mondo dei PC mi pare proprio un qualcosa di veramente poco entusiasmante!
no sbagli..
non è in grado di produrre nemmeno una CPU a 45 nm...
produrre una cella di SRAM è MOLTO ma MOLTO piu' semplice ke produrre una CPU...
non x niente TUTTE le dimostrazioni sui nuovi processi produttivi che ho visto finora sono state fatte costruendo una memoria Cache con quel processo.
per lucusta
Posso chiederti cosa intendi con "transistor fisico"?
Anche quelli quantistici o ottici sono "transistor fisici", o no?!
per Special
Il fatto che INTEL ora mostri chip a 45 nm, credo significhi che tra un anno e mezzo molto probabilmente venderà processori da 45 nm.
Non è affatto certo che i "concorrenti" tra un anno e mezzo avranno processori da 45 nm in produzione. Aspetterei le altre presentazioni per dire se "i concorrenti saranno lì...".
E comunque credici: il passo in avanti è molto grande! Certe cose non si improvvisano, ci staranno lavorando da almeno dieci anni.
Però nessuno ha parlato dei problemi di Leakage Power Dissipation, ho trovato un link proprio in questo momento che stavo leggendo:
http://www.actapress.com/PaperInfo.aspx?PaperID=22126
Leggendo invece del futuro ho trovato un articoletto intitolato 3-dimensional structure SRAM cell prototype: http://www.alwayson-network.com/comments.php?id=6032_0_4_0_C dove si evince che è stata un anno e mezzo fa Hitachi la prima a costruire il prototipo.
Michelangelo_C
26-01-2006, 13:36
1 nm, ossia piu' o meno il diametro di un atomo, ma per il gate di un transistor fisico ce ne vogliono ben piu' di 1, in lunghezza, dovendo avere la proprieta' di essere isolante/conduttore data dal drogaggio di atomi con funzione di elettro-conduttori interposti.
28-22 nm e' piu' realistico (forse 16, con degli ipotetici futuri trattamenti isolanti); a 0.1 nm gia' siamo alla dimensione di una molecola d'acqua (che e' relativamente piccola).
piu' e' piccolo il gate, piu' se ne possono mettere in unita' di superficie, piu' alta sara' la densita' dei transistor;
piu' e' corto il gate, meno energia ci vuole per farlo diventare da isolante a non isolante;
piu' sono vicini i gate e i contatti per il gate, piu' ci sono interferenze;
piu' ci sono interferenze, piu' proprieta' isolante deve avere il gate, o pui' alta dev'essere la differenza tra' potenziale isolante/conduttore;
per aumentare la differenza, si aumenta l'energia necessaria alla transizione;
piu' aumenta l'energia, piu' interferenze vengono prodotte tra' gate e gate e tra' contatto/contatto...
il SOI aumenta l'isolazione, garantendo un'abbassamento del potenziale elettrico necessario alla transizione da stato isolante a stato conduttore
(piu' o meno, a grandi linee, e da quanto sappia io)
Per energia per passare il gate da stato isolante a conduttore intendi la tensione di soglia Vtn?
Altra cosa: dici che il trattamento SOI aumenta l'isolazione dei gate garantendo una Vtn più bassa..prima però avevo capito che se si isolava maggiormente il gate, serviva più energia per far entrare in conduzione il transistor..
Puoi spiegare meglio questi due concetti?
Michelangelo_C
26-01-2006, 13:47
Leggendo invece del futuro ho trovato un articoletto intitolato 3-dimensional structure SRAM cell prototype: http://www.alwayson-network.com/comments.php?id=6032_0_4_0_C dove si evince che è stata un anno e mezzo fa Hitachi la prima a costruire il prototipo.
Ma quante ripetizioni ci sono in questo articolo? Prova a contare quante volte dice "questa tecnologia è in sviluppo per continuare sulla strada della maggiore integrazione oltre il processo a 45 nm". Credo almeno 4 volte, se si legge tra le righe anche di più ;) .
Comunque interessante l'inizio dell'articolo in cui descrive brevemente la struttura di questi 3D transistor: A quello che ho capito sono due transistor con al loro interno altri due transistor. Non riesco a immaginarmelo, ci vorrebbe uno schema..
HARDCANO
26-01-2006, 15:30
Che rabbia che mi fate!!! Non è che quel che dite non sia vero... ma... Anche quando Intel è uscita con i 90nm e poi con 65nm doveva esserci un notevole calo dei costi di produzione una volta arrivati a pieno regime di produzione con un (IN)verosimile calo dei prezzi per lotti e quindi per l'utente finale... Volete dirmi che non siamo ancora a pieno regime? Eppure il NOTEVOLE calo non c'è stato, e continuerà a non esserci visto che tra poco ci saranno questi 45nm... Con prezzi naturalmente in linea con le restanti produzioni (e naturalmente dopo aver prodotto abbastanza lotti da sostenere la nuova spesa)... ma pur sempre elevati secondo me... Che speculazione!
METATHRON
26-01-2006, 16:03
se intel ha raggiunto i 45nm penso che non sarà un problema per AMD, che per le tecnologie di produzione dei chip si rifà a IBM, che se non sbaglio è detentrice del maggior numero di brevetti di informatica e ha una divisione ricerca ben superiore a intel. l'attuale tecnologia dei chip AMD S.O.I. è un brevetto IBM. sono due approcci diversi: Intel fa ricerca da sè, AMD si affida ad IBM, non per questo soffrendo di arretratezza...
ciao
molto interessante, sopratutto la faccenda del 3d
cmq, per la questione 90nm-->65nm delle cpu intel, si deve tener conto delle correnti parassite, e che nel passaggio non è stato fatto un semplice die shrink, ma è cambiato completamente il core, con una struttura interna quindi molto diversa, e con u numero ben maggiore di transistor.
picard88
26-01-2006, 16:09
Che rabbia che mi fate!!! Non è che quel che dite non sia vero... ma... Anche quando Intel è uscita con i 90nm e poi con 65nm doveva esserci un notevole calo dei costi di produzione una volta arrivati a pieno regime di produzione con un (IN)verosimile calo dei prezzi per lotti e quindi per l'utente finale... Volete dirmi che non siamo ancora a pieno regime? Eppure il NOTEVOLE calo non c'è stato, e continuerà a non esserci visto che tra poco ci saranno questi 45nm... Con prezzi naturalmente in linea con le restanti produzioni (e naturalmente dopo aver prodotto abbastanza lotti da sostenere la nuova spesa)... ma pur sempre elevati secondo me... Che speculazione!
certo che c'è stato il calo dei costi di produzione solo che parallelamente sono aumentate le dimensioni dei die dei processori....l'obbiettivo principale delle aziende è il guadagno....quindi fai 2+2...altrimenti come avrebbero fatto, per esempio, quelli della intel a proporre dei pentium D col doppio della cache allo stesso prezzo dei precedenti proci?
e va tenuto conto pure che devono rientrare degli ingenti investimenti nella ricerca.
All´universitá dove lavoro un gruppo di miei colleghi sta giá sviluppando prototipi di chip tridimensionali con piú di 5 piani di transistor!!!! :sofico:
forse è una domanda per il futuro comunque da quel ke ho capito i proci del futuro avranno transistor sparsi su un volume e non su una superficie.
quindi non tutti i transistor avranno un contatto con la superfice esterna per la dissipazione.
come fanno a raffreddare quelli + all'interno della struttura?
è un domanda ke mi ha incuriosito da impazzire
se potete dirmi qualcosa d+ in proposito ve ne sarei grato
bond_san
26-01-2006, 17:26
Dove arriveremo? Un chip grosso quanto un granello di sabbia?
Un passo in avanti che non può che portare benefici!
Non avrà i migliori processori del momento, ma Intel è sempre molto attiva nel campo delle innovazioni, e di questo bisogna proprio prendere atto. Brava!
...per non creare "flames"...e quali sarebbero i migliori processori del momento, Sua Saccenza ci può illuminare ? :ciapet:
...certo è che ve le cercate proprio, io non credo che ci sia "un miglior processore", ma processori che meglio si possono adattare alle nostre esigenze... :rolleyes: :mbe: :doh:
Michelangelo_C
26-01-2006, 17:56
Proprio per non scatenare flames, IMHO AMD è un quantomeno un po' al di sopra di intel per quanto riguarda i processori desktop, e credo che questo sia condivisibile anche da altre persone, senza andare a cercare fanboy.
io non credo che ci sia "un miglior processore"
Non credo proprio sia così: secondo te se io domani collego qualche transistor e faccio in modo che possano elaborare dei bit anche se con prestazioni e consumi osceni, questo sarebbe lo stesso un processore "adatto alle esigenze di qualcuno"? Io non credo..
Va bene l'esempio è un po' estremo, ma questo giusto per dire che i processori scarsi alle volte esistono davvero, non è solo questione di simpatia o di esigenze particolari.
E' vero che ci sono anche ambiti in cui i pentium sono migliori degli athlon (intendo sempre in ambito desktop), ma in quasi tutti i casi si hanno prestazioni superiori su AMD, oltretutto con consumi minori.
Quindi è vero, non si può dire che AMD abbia i "migliori processori"; è più corretto dire che ha i "migliori processori in quasi ogni ambito applicativo" (desktop si intende).
Dreadnought
26-01-2006, 19:30
Desktop, server e workstation.
Amd è indietro solo nei portatili, non tantissimo tra l'altro, pero' il divario è evidente.
Amd è indietro solo nei portatili, non tantissimo tra l'altro, pero' il divario è evidente.
E' evidente perché non vi sono chipset in grado di far vedere quanto sia piccolo questo divario, il Turion è un Signor processore.
rdefalco
26-01-2006, 21:40
...per non creare "flames"...e quali sarebbero i migliori processori del momento, Sua Saccenza ci può illuminare ? :ciapet:
...certo è che ve le cercate proprio, io non credo che ci sia "un miglior processore", ma processori che meglio si possono adattare alle nostre esigenze... :rolleyes: :mbe: :doh:
Probabilmente si intende che i processori IN COMMERCIO attualmente non sono il meglio di ciò che Intel ha nel paniere. Sanno tutti che Intel avrebbe la possibilità di far fuori istantaneamente la sua linea Pentium4 per sostituirla con l'evoluzione del Pentium M. Probabilmente le linee guida del marketing glielo sconsigliano. Certo allo stato attuale delle cose gli utenti ringrazierebbero... :D
Michelangelo_C
26-01-2006, 22:16
Desktop, server e workstation.
Amd è indietro solo nei portatili, non tantissimo tra l'altro, pero' il divario è evidente.
E' evidente perché non vi sono chipset in grado di far vedere quanto sia piccolo questo divario, il Turion è un Signor processore.
Certo sono più che d'accordo, ma era per non sembrare di parte e andare invece sul sicuro sul campo desktop che è quello più noto e indiscutibile da tutti.
daedin89
26-01-2006, 22:23
mi chiedevo anche io come faranno a dissipare un "volume" piuttosto che una "superficie"...cmq io avevo letto da qualche parte delle news su una nuova tecnologia riguardante i processori quantistici che sfruttavano la ionizzazione di un atomo di non ricordo quale elemento...si è piu saputo niente?
per lucusta
Posso chiederti cosa intendi con "transistor fisico"?
Anche quelli quantistici o ottici sono "transistor fisici", o no?!
per me il transistor fisico, e' propriamente il pezzo di silicio drogato con gallio o germanio che fa' vuoto elettronico, consentendo il salto (o meglio passaggio) di un elettrone da un vuoto all'altro in un ambiente praticamente isolante per lui, in quanto tutti gli atomi hanno un ottetto completo e stabile.
diversamente gli altri che hai citato sono transistor di "concetto" o quasi:
un transistor ottico, viene definito tale solo perche' ricorda il funzionamento di un transistor, ossia un interruttore che puo' essere comandato come aperto o chiuso, ma in realta' sono interferenze di onde di luce, ossia fotoni, ben piu' piccoli di un atomo: 1 raggio di luce ha una sua frequenza a cui e' legata la sua lunghezza d'onda (essendo la velocita' della luce costante nello steso mezzo), ed una sua fase; se e' da solo passa ed e' ON, se viene aggiunto un'altro raggio di luce in controfase, i raggi sono due, ma la lunghezza d'onda viene annullata, ed e' OFF.
un transistor quantico effettivamente non esiste; esiste il computer quantico, dove i bit 0 e 1 vengono definiti dallo spin+ o spin- di un elettrone; ha la possibilita' di calcolare in un nulla tutte le possibilita' reali di un problema in una volta sola (ma se non e' pensato bene il modo di risoluzione, non e' che con la risposta ci si fa' tanto..).
un computer quantico e' importante quando si pongono problemi a livello di innumerevoli variabili, dove un normale calcolatore dovrebbe calcolare ogni singola possibilita' di risoluzione reale, permutata per ogni singola variabile. In un calcolatore quantico un elettrone od un gruppo di elettroni prendono il valore di una variabile, e un byte sara' formato da quante sono le variabili in gioco; fotografando (tramite risonanza) lo stato del sistema, otterrai tutte le soluzioni REALI di quel sistema.
(sempre per quanto ne sappia io e a gradi, grandissime linee)
Michelangelo_C
26-01-2006, 23:47
mi chiedevo anche io come faranno a dissipare un "volume" piuttosto che una "superficie"...cmq io avevo letto da qualche parte delle news su una nuova tecnologia riguardante i processori quantistici che sfruttavano la ionizzazione di un atomo di non ricordo quale elemento...si è piu saputo niente?
Sie, quella era una notizia di primissime sperimentazini ancora assolutamente non funzionante.. praticamente un esperimento scientifico. Se mai sarà possibile costruire una CPU quantica con i principi delle ion trap in grado di risolvere problemi di natura diversa (general purpose) sarà tra almeno una ventina di anni minimo (almeno per quanto so io). Comuque non centra nulla con i chip 3D, questi qui sono sviluppati con i soliti transistor MOSFET di adesso (anche se dal link dato da hal2001 non ho capito come questi vengano disposti, io ho capito che ce ne siano due di tipo verticale con impiantati altri due sopra di loro, ma non riesco a immaginarmelo).
Per quanto riguarda la dissipazione dei transistor nel volume, io penserei a una specie di dissipatore passivo di dimensioni nanometriche applicato a ciascun transistor: in pratica un filino ad alta conducibilità termica (non in contatto con gli altri terminali dei transistor ovviamente) che esce da ogni mosfet con il compito di portare all'esterno del chip il calore, per poi essere comodamente dissipato. Dato che ormai si va verso il miliardo di transistor per CPU, ho idea che una cosa del genere sia esageratamente complessa per non dire impossibile da realizzare, senza considerare il costo; però sarebbe esagerata!
Michelangelo_C
26-01-2006, 23:57
per me il transistor fisico, e' propriamente il pezzo di silicio drogato con gallio o germanio che fa' vuoto elettronico, consentendo il salto (o meglio passaggio) di un elettrone da un vuoto all'altro in un ambiente praticamente isolante per lui, in quanto tutti gli atomi hanno un ottetto completo e stabile.
diversamente gli altri che hai citato sono transistor di "concetto" o quasi:
un transistor ottico, viene definito tale solo perche' ricorda il funzionamento di un transistor, ossia un interruttore che puo' essere comandato come aperto o chiuso, ma in realta' sono interferenze di onde di luce, ossia fotoni, ben piu' piccoli di un atomo: 1 raggio di luce ha una sua frequenza a cui e' legata la sua lunghezza d'onda (essendo la velocita' della luce costante nello steso mezzo), ed una sua fase; se e' da solo passa ed e' ON, se viene aggiunto un'altro raggio di luce in controfase, i raggi sono due, ma la lunghezza d'onda viene annullata, ed e' OFF.
un transistor quantico effettivamente non esiste; esiste il computer quantico, dove i bit 0 e 1 vengono definiti dallo spin+ o spin- di un elettrone; ha la possibilita' di calcolare in un nulla tutte le possibilita' reali di un problema in una volta sola (ma se non e' pensato bene il modo di risoluzione, non e' che con la risposta ci si fa' tanto..).
un computer quantico e' importante quando si pongono problemi a livello di innumerevoli variabili, dove un normale calcolatore dovrebbe calcolare ogni singola possibilita' di risoluzione reale, permutata per ogni singola variabile. In un calcolatore quantico un elettrone od un gruppo di elettroni prendono il valore di una variabile, e un byte sara' formato da quante sono le variabili in gioco; fotografando (tramite risonanza) lo stato del sistema, otterrai tutte le soluzioni REALI di quel sistema.
(sempre per quanto ne sappia io e a gradi, grandissime linee)
Cavolo te ne intendi seriamente! :ave:
Puoi darmi una risposta alle domande che ti avevo fatto in un post precedente di questa discussione?
Interessante. Una domanda. Ma cosa si prevede di fare una volta che il limite fisico è stato raggiunto?
Dreadnought
27-01-2006, 00:47
E' evidente perché non vi sono chipset in grado di far vedere quanto sia piccolo questo divario, il Turion è un Signor processore.
Beh i chipset ATI non fa proprio schifo, secondo me il turion è ancora indietro rispetto al centrino.
Non ha la possibilità di spegnere la cache inutilizzata, non ha una pipeline ottimizzata per i consumi, diversamente da quella del dothan/yonah.
Il turion consuma poco perchè ha un ottimo processo produttivo, non per le sue caratteristiche, yonah consuma poco perchè è la sua progettazione che glielo permette.
Per energia per passare il gate da stato isolante a conduttore intendi la tensione di soglia Vtn?
credo di si, non e' la mia materia, e non conosco le definizioni esatte.
Altra cosa: dici che il trattamento SOI aumenta l'isolazione dei gate garantendo una Vtn più bassa..prima però avevo capito che se si isolava maggiormente il gate, serviva più energia per far entrare in conduzione il transistor..
Puoi spiegare meglio questi due concetti?
in effetti mi sono espresso male, ma e' complicato parlare di un'argomento di cui conosco forse solo i concetti generali;
SOI garantisce l'isolazione tra fondo degli strati drogati e lo strato di supporto in silicio, dalle cariche parassite, e che interferiscono con il funzionamento del transitor
come sicuramente saprai meglio di me (visto che definisci giustamente questo salto energetico Vtn), in presenza di queste cariche bisogna utilizza una tensione piu' alta in modo da differenziare maggiormente lo stato logico 0 e lo stato logico 1, e non generare errori; questo a discapito della temperatura finale, che fa' aumentare ulteriormente queste cariche, e percio' della possibilita' di aumentare la frequenza (anche se questa dovrebbe dipende teoricamente dal percorso piu' lungo di ogni singola istruzione all'interno del procesore).
Percio' con lo strato isolante si riesce a mantenere una tensione piu' bassa, o meglio piu' vicina alla differenza di potenziale che ci sarebbe tra' lo stato isolante e quello di conduzione del materiale usato. Nella pratica, se servono 0.7volt di differenza di potenziale per avere il passaggio del materiale da isolante a conduttore, con SOI (o tecniche similari) si puo' avere lo stato 0 (isolante) a 0.4volt, e lo stato 1 (conduttore) a 1.2v, con una differenza di 0.8volt, che mette in grado di definire bene lo stato in cui e' il transistor, mentre senza SOI, un gate piccolo (ossia la separazione tra' i due strati drogati), e percio' con cariche parassite elevate, bisognera' avere 0.4v e 1.5volt, perche' 0.4volt+cariche parassite possono dare 1 volt, o viceversa 1.2volt-cariche parassite possono dare 0.6volt, dando valore aperto o chiuso non dovuto alla situazione della logica, ma al caso, se siano presenti o meno cariche negative o positive (o meglio su uno strato drogato o sull'altro ) in quantita' tali da rendere inefficente il transistor.
come ho detto: piu' o meno, a grandi linee, e da quanto sappia io;
ben venga colui che sa' la verita' delle cose ed ha la voglia di divulgarle al volgo..
Cavolo te ne intendi seriamente! :ave:
no, ho solo delle conoscenze di base (e non sono ne fresche ne aggiornate), ottenute solo per "passione" sull'argomento.
comunque ho piu' dimestichezza con la natura della luce, orbitali, ottetti, e sipn di quanto ne abbia con un cmos, anche perche' giornalmente uso strumenti analitici che si basano su questi principii, e non e propriamente la stessa cosa dell'usare un PC con una cpu pur sapendo che si basa sul principio della transizione metallo-isolante data dagli orbitali d e f...
Interessante. Una domanda. Ma cosa si prevede di fare una volta che il limite fisico è stato raggiunto?
difficilmente la tecnologia di litografia e transizione di stato elettrico dovrebbe essere abbandonata.
credo che l'idea sara' quella di spostarsi su altri tipi di materiali, che consentiranno tensioni piu' elevate, e le maggiori temperature verranno mitigate dalla natura del materiale stesso.
i processori saranno progettati diversamente per aumentarne le prestazioni in ambiti ben definiti, come per il cell, che e' l'unione di piu' unita' elaborative ad alta specializzazione; forse ci si rendera' conto che la funzione "piu' piccoli li faccio, piu' ce ne stanno in unita' di spazio e piu' c'e' guadagno" non paghera' piu' di tanto e si costruiranno cpu meno dense per unita' di superficie ma piu' efficenti (non e' detto che un processore da 1000mhz e 100mm2 possa essere piu' veloce di uno da 200mhz e 200mm2, o possa costare di piu').
si cerchera' insoma di battere tutte le strade di questo tipo di tecnica, prima di dovrela abbandonare e passare a livelli differenti dela materia.
comunque la strada piu' logica sembrerebbe essere quella dei chip ottici, in quanto le interferenze della luce promettono ben piu' della semplice logica binaria di un transistor... forse tra' 30-40 anni i computer avranno logica fuzzy avanzata.
YaYappyDoa
27-01-2006, 07:30
Forse AMD dovrebbe adottare la politica delle "bigmouth company", diffondendo a gran voce delle "cabalistiche" roadmap e i risultati dei propri esperimenti, forse martellando così la gente il marchio acquisterebbe maggior lustro e popolarità.
Da un po' AMD sta lavorando ai 45nm e oltre, ma purtroppo non diffonde ad urbi et orbi ogni formichina generata.
www.amd.com/us-en/assets/content_type/DownloadableAssets/ssdm2003b.pdf
http://tweakers.net/nieuws/30075
Altre notiziole si trovano ( ben nascoste, eh! ) nei meandri del sito AMD.
YaYappyDoa
27-01-2006, 09:19
@ Dreadnought
Dubito che un ipotetico Yonah da 90nm consumerebbe meno di un Turion da 90nm.
Btw, uno dei difetti più *madornali* del "core duo" è la sua incapacità di svegliarsi da uno stato di freeze ( tipico nei notebook ) e fornire le corrette pagine di memoria ai programmi che fanno uso di paginamento in global mode, restituendo dati da pagine di memoria "casuali" similmente ad un fault del meccanismo cache coherency. ( Bug AE30 ). Un altro *gravissimo* bug che interessa il risparmio energetico risiede nel danno fisico che può subire la cpu per "fusione del nucleo", perchè non è in grado di leggere il sensore termico tornando da uno stato di sospensione C3/C4 e se nel frattempo la ventola del dissipatore si è fermata...ka-boom!! ( bug AE18 )
Sarebbe stato bene fare le cose con meno precipitazione, evitando di produrre cpu con difetti così "vitali" destinate a notebook.
Dreadnought
27-01-2006, 12:38
Dipende, se fosse prodotto a 90mn con la tecnologia DSL di IBM/AMD secondo me consuma meno del turion.
Un altro *gravissimo* bug che interessa il risparmio energetico risiede nel danno fisico che può subire la cpu per "fusione del nucleo", perchè non è in grado di leggere il sensore termico tornando da uno stato di sospensione C3/C4 e se nel frattempo la ventola del dissipatore si è fermata...ka-boom!! ( bug AE18 )
Sarebbe stato bene fare le cose con meno precipitazione, evitando di produrre cpu con difetti così "vitali" destinate a notebook.
Quando la CPU è in C3 o C4 è al minimo dello speedstep (600mhz o giù di lì)
0.7V o anche meno, cache vuota e con la pipeline spenta, se riesce a salire oltre i 60° prima che finisca la batteria anche se il portatile è chiuso dentro in un cellophane è tanto.
P.S: considera che ho un dothan con una sola ventola per VGA e CPU, quando sono a batteria imposto che la ventola deve accendersi oltre i 50°, e faccio ore a ventola spenta.
YaYappyDoa
27-01-2006, 13:23
Il sensore non viene rilevato AL RISVEGLIO dal C3/C4, a pieno regime. Fai tu...
rdefalco
27-01-2006, 13:39
@YaYappyDoa
Beh immagino che questi bug non siano molto pubblicizzati. Penso che in generale usciranno altre revisioni del prodotto, unitamente a prezzi magari più contenuti... Tu sembri molto informato sull'argomento, come fai a saperli? Ti occupi di microelettronica per lavoro o è per hobby?
La maggior parte degli errata si correggono via aggiornamenti microcodice, che sono inclusi nei BIOS aggiornati che escono... ;)
Vi siete mai chiesti che vuol dire che un BIOS "riconosce" un processore? Semplicemente riconosce il modello e lo stepping e ad ogni boot carica le patch al microcodice appropriate... Questo perchè la microcode ROM è, appunto, una ROM, ma c'è un'area di RAM (penso statica) in cui è copiata al reset e che può essere scritta con istruzioni particolari (credo in SMM, System Management Mode)
YaYappyDoa
27-01-2006, 14:27
Certamente i bug più gravi, che non possono essere aggirati "dall'esterno", saranno corretti nelle prossime versioni del prodotto.
Non mi occupo più di microelettronica in modo specifico, ma devo ben sapere cosa porto "a casa" quando si tratta di fare il turnover di molte macchine, non posso permettermi di prendere abbagli :)
Ho sempre preferito aspettare almeno tre mesi dall'introduzione di un nuovo prodotto prima di dire "Sì, adottiamolo". Le notizie, quando non fornite direttamente dalla casa madre o dall'esperienza personale, le ottengo vagliando attentamente i risultati delle prove eseguite da altri più esperti o forniti di "primizie di laboratorio" :)
difficilmente la tecnologia di litografia e transizione di stato elettrico dovrebbe essere abbandonata.
credo che l'idea sara' quella di spostarsi su altri tipi di materiali, che consentiranno tensioni piu' elevate, e le maggiori temperature verranno mitigate dalla natura del materiale stesso.
i processori saranno progettati diversamente per aumentarne le prestazioni in ambiti ben definiti, come per il cell, che e' l'unione di piu' unita' elaborative ad alta specializzazione; forse ci si rendera' conto che la funzione "piu' piccoli li faccio, piu' ce ne stanno in unita' di spazio e piu' c'e' guadagno" non paghera' piu' di tanto e si costruiranno cpu meno dense per unita' di superficie ma piu' efficenti (non e' detto che un processore da 1000mhz e 100mm2 possa essere piu' veloce di uno da 200mhz e 200mm2, o possa costare di piu').
si cerchera' insoma di battere tutte le strade di questo tipo di tecnica, prima di dovrela abbandonare e passare a livelli differenti dela materia.
comunque la strada piu' logica sembrerebbe essere quella dei chip ottici, in quanto le interferenze della luce promettono ben piu' della semplice logica binaria di un transistor... forse tra' 30-40 anni i computer avranno logica fuzzy avanzata.
un esempio potrebbe essere quello delle GPU?
dato ke a 3dmark i soli proci fanno skifo devo dedurre ke i 500mhz delle GPU sono molto + potenti dei millemila mhz delle cpu moderne
Michelangelo_C
27-01-2006, 16:45
Grazie per le delucidazioni, adesso ho capito cosa intendevi per isolamento.
un esempio potrebbe essere quello delle GPU?
dato ke a 3dmark i soli proci fanno skifo devo dedurre ke i 500mhz delle GPU sono molto + potenti dei millemila mhz delle cpu moderne
portando all'estremo la situazione, si... ma c'e' anche da dire che una GPU non e' un chip "general porpouse", ma solo degli algoritmi specializzati "stampati" su silicio, e per la natura dei loro calcoli sono congeniati in maniera decisamente diversa; una GPU ha un quantitativo di transistor adibito ai calcoli dalle 4 alle 6 volte superiore di una normale CPU (il resto dei transistor di una CPU sono adibiti per la caches), e i calcoli che producono hanno un traggitto relativamente lungo all'interno del chip (nel senso che toccano molti transistor), percio' la loro frequenza e' frenata da questo fattore; le pipeline dei processori sono state via via allungate per permettere di accorciare questo traggitto e aumentare di conseguenza la frequenza del chip, dando pero' come esito negativo la quantita' effettiva di calcoli finiti prodotti: una GPU per singolo clock produce un risultato, una CPU produce un risultato in diversi clock, perche' il calcolo e' separato in diversi passi.
Il Cell e' quello che piu' si avvicina al concetto evolutivo delle CPU, proponendo un'unita' elaborativa general porpouse (che fa' un po' di tutto), e unita' affiliate, molto veloci nel loro ambito di calcolo, non in grado di operare autonomamente, ma in grado di farlo congiuntamente tra' loro e guidate comunque dalla logica prodotta dall'unita' operativa, ossia il processore G5 affiancato.
nei prossimi anni si potrebbero avere conglomerati di piccolle unita' di calcolo affiancate, che avranno la possibilita' di cooperare allo stesso iter aumentando la velocita' d'esecuzione, od eseguirle lo stesso in piena autonomia;
queste unita' potrebbero essete tutte cloni di una, o anche essere diversificate e piu' specializzate in alcuni calcoli: ad esempio un core potrebbe essere cisc e uno risc, ed un'altro crisc; uno specializzato nella funzione di governare un singolo aspetto del computer, magari per il trasferimento sui BUS dati, dove un risc e sicuramente piu' veloce e semplice da programmare rispetto a un crisc, ma all'occorrenza potrebbe venir comodo usare il crisc piu' lento in quest'aspetto, per i BUS e il risc per un calcolo.
Un processore odierno ha queste funzionalita', intendiamoci, ma sono unita' di calcolo della stessa CPU: ALU, FPU ecc sono matrici di transistor dedicate ad aspetti specifici di calcoli, ma avere 2 processori nello stesso die, dove in uno ci sono 3 unita' ALU, e una FPU, mentre nell'altro il rapporto cambia in 1 ALU e 3 FPU, potrebbe aiutare a meglio veicolare i processi.
non ci sara' da impressionarsi se tra' 10 anni verranno proposte CPU a 16 o piu' core affiancati sullo stesso die, con ogni core operante ad un diverso aspetto operativo a seconda dei propri gadget;
in verita' il grande salto lo stiamo facendo oggi, nei sistemi casalinghi, che sono i piu' restii al cambiamento, spinti dal'innovazione dai dual core, dove, per sfruttarli nel modo migliore, i programmi devono essere congegniati secondo piccole unita' che possono essere calcolate indistintamente e parallelamente su piu' unita' di calcolo (multithread), requisito essenziale per sfruttare al meglio questi processori;
ma i programmi funzionanti in multithread sono il requisito importante per poter evolvere in ben altre direzioni per aumentare la velocita' di esecuzione in generale; passare da 2 a 4 o a 8 core e' indifferende per il programma, se questo e' stato strutturato in multithread; sara' solo piu' veloce l'esecuzione dei suoi thread, perche' parteciperanno piu' unita'.
quando ci saranno i tetra-core (o quad-core?) sara' sempre possibile giocare a pacman con il codice degli anni '80, ma con un solo core, non sfruttando cetro la potenza di tutte e 4 le unita'.
comunque, in finale, noi avremo sempre piu' bisogno di usare i computer sempre piu' veloci, e come saranno le CPU interessera' poco, basta che siano veloci nel risolvere i nostri problemi (anche se effettivamente i PC producono molto piu' lavoro per le persone di quanto ne faccia carta e penna...)
EDIT:
ecco, neanche a farlo apposta oggi c'e' una news sui quad-core (a me piaceva piu' tetra-core).
Dreadnought
29-01-2006, 02:53
Il sensore non viene rilevato AL RISVEGLIO dal C3/C4, a pieno regime. Fai tu...
Considerando che il "risveglio" da C3/C4 a C2 dura qualche secondo? :asd:
Ok che una cpu puo' avere bug, ma se fossero pericolori non le metterebbero in vendita. Poi non è assolutamente critico, in quanto i portatili hanno sempre vari sensori che attivano le ventole, e sono sempre controllati via ACPI e BIOS, la CPU pensa solo a fare speedstep e throttling.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.