View Full Version : IL LIMITE FISICO DELLE CPU
Goldrake_xyz
26-07-2004, 19:39
Eccomi.....:D
1 - LIMITE DI INTEGRAZIONE
Se si guarda la struttura del cristallo di silicio ....
http://www.webelements.com/webelements/elements/text/Si/xtal.html
si nota che la dimensione (arrotondata x eccesso) di un singolo
cristallo è di .... 600 pm = 0.6 nm e questo è il limite di
integrazione sul silicio monocristallino..:oink:
Quindi sotto il 1 nm non si scende !!!
Tabella riassuntiva:
Prescott = 90 nm
next 1 = 65 nm
next 2 = 35 nm
next 3 = 10 nm
ma già a 10 nm si potrebbero verificare dei grossi problemi ...:rolleyes:
2 - LIMITE DI FREQUENZA
Quando la lunghezza d'onda diventa paragonabile alla
dimensione del conduttore, allora questo si comporta
come una linea di trasmissione, a costanti distribuite ...
Ad esempio se il core ha dimensioni di 1x1 cm allora
la frequenza massima è di 30 GHz (per eccesso).
.... to be continued ... :sofico:
jappilas
26-07-2004, 20:34
che ci sono problemi a ridurre troppo le dimensioni, perchè diventerebbe più difficile realizzare i collegamenti col package ...:rolleyes:
CONFITEOR
27-07-2004, 01:39
Originariamente inviato da Goldrake_xyz
Eccomi.....:D
1 - LIMITE DI INTEGRAZIONE
Se si guarda la struttura del cristallo di silicio ....
http://www.webelements.com/webelements/elements/text/Si/xtal.html
si nota che la dimensione (arrotondata x eccesso) di un singolo
cristallo è di .... 600 pm = 0.6 nm e questo è il limite di
integrazione sul silicio monocristallino..:oink:
Quindi sotto il 1 nm non si scende !!!
Tabella riassuntiva:
Prescott = 90 nm
next 1 = 65 nm
next 2 = 35 nm
next 3 = 10 nm
ma già a 10 nm si potrebbero verificare dei grossi problemi ...:rolleyes:
2 - LIMITE DI FREQUENZA
Quando la lunghezza d'onda diventa paragonabile alla
dimensione del conduttore, allora questo si comporta
come una linea di trasmissione, a costanti distribuite ...
Ad esempio se il core ha dimensioni di 1x1 cm allora
la frequenza massima è di 30 GHz (per eccesso).
quindi con un core di 0,3 cm sarebbero 100ghz, non male....
e a 10nm il core sarebbe 100 volte + piccolo dell'attuale,
90
65
45
35
25
15
10
ma questi sono i limiti fisici della tecnologia attuale, e ovvio che si troveranno strade diverse.
theBlooder
27-07-2004, 04:44
Quali strade diverse!
Tutto si fermerà :cry:
Perfectdavid
27-07-2004, 07:39
tanto si avvirà al punto che non servirà più potenza... :D
beh io credo che più si va miniaturizza e più tempo occorre x riuscire a fare la cpu! quindi credo che prima di arrivare a 10nm passeranno più di 10 anni, forse 15! e poi da li in giù nn si potra più andare credo nemmeno con tecnologie aliene, il silicio è alla frutta quando saremo a 10nm. cmq ci saranno già proci con 4 o 8 core in uno! quindi credo che un alternativa ci sarà cmq x altri 30 anni buoni forse anche di più! in attesa di cpu a neuroni o robe simili!
occhio a parlare dei 15 anni.... che vengon fuori cose che non ci sognamo neanche di notte :D
Necromachine
27-07-2004, 11:20
In realtà scendere ancora di nanometri richiede accorgimenti particolari, l'abbiamo visto già coi prescott e gli Athlon64, intel ha introdotto la tecnologia Strained Silicon, AMD-IBM la tecnologia SOI, già in precedenza ai tempi dei p3 - primi p4 erano state introdotte le interconnessioni in rame, ora si sta cercando di introdurre la tecnolgia low-K nei processori ... insomma per andare a vanti ad aumentare le frequenze occorrono parallelamente alla riduzione di geometria, altre tecnologie di questo tipo, ben più costose e complesse da realizzare, per questo vediamo che l'evoluzione sta rallentando.
Secondo me i proci continueranno ad evolversi, anche se a ritmo più lento, più che aumenti di frequenza e diminuzioni di geometria (che comunque ci saranno) vedremo sviluppi architetturali (es. i dual core).
Intel cmq sta già pensando ai proci a 0.065u (anche se si parla di alcuni anni, visti anche i problemi con gli attuali 0.09u) e di introdurre l'architettura pentium-m anche nei desktop (i p4 come dissipazione di calore sono quasi arrivati a llimite sostenibile in un pc con dissipatori ad aria).
Il limite ultimo di geometria ipotizzato è di 0.022u e non 0.01u.
Poi già adesso sono in atto miriadi d iricerce per riuscire a realizzare computer ottici e quantici, c'è solo da sperare che salti fuori qualcosa di nuovo prima della fine del silicio, altrimenti l'evoluzione pc sarà praticamente in stallo ...
nn sarà mai in stallo l'evoluzione dei pc! se il silicio arriva al limite, ripeto, si arriverà ad avere 8 16 32 core in uno unico, nn si fermeranno mai! ovvio che arriveranno ad un punto esattamente come adesso che gli incrementi sono ridotti! ma nn si fermeranno mai! ;)
valerio86
27-07-2004, 12:56
Ho sentito parlare di CPU che utilizzano impulsi luminosi anzichè elettrici. PEr ora sono in via di sperimentazione, ma in futuro...
si ci sono in sperimentazione, xò dato il costo e la scarsa resa produttiva x ora e x molti anni nn sono commercialmente fattibili! :(
mi sembra che in campo militare ci siano già cpu di questo tipo!
qwertyasdf
27-07-2004, 13:29
i militari hanno tutto e subito loro si ke hanno roba da alieni....:O
Verdeosso
27-07-2004, 16:25
30 Ghz :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek:
è di circa 11 volte più veloce del mio processore!!!:eek: :eek:
Sarà pure un limite ma per ora è un sogno
qwertyasdf
27-07-2004, 16:28
i limiti sn fatti per essere infranteìi:sofico: :asd: :yeah: :fuck:
lucas86mj23
27-07-2004, 16:55
nn si parlava di proci con connessioni in fibra ottica?
Cecco BS
27-07-2004, 17:30
già, ci sono i prototipi di processori ottici e non dimenticate il qbit del computer quantistico (ancora fantascienza, ma quando verrà raggiunto il limite dei 10 nanometri...)
beh io ho sentito se nn ricordo male che i computer quantici nn andrebbero bene a svolgere compiti quotidiani, come far andare un so e i relativi prog!
mi sembra siano adatti x calcoli probabilistici o sbaglio?
tommy781
27-07-2004, 18:15
io comunque resto sempre scettico quando si prospettano frequenze assurde di lavoro per i proci, secondo me sarebbe ora di ottimizzarle queste cpu, di segare con il passato X86 e rivedere tutta l'architettura in modo da rendere la velocità meno rilevante.
in fin dei conti a cosa serve un procio a 30 ghz se poi per raffreddarlo ci vuole un impianto criogenico? rimaniamo con i piedi per terra, temperature e consumi spingeranno per un mercato diverso, meno legato alle velocità e basta, almeno per quello che sarà il segmento home.
Originariamente inviato da tommy781
io comunque resto sempre scettico quando si prospettano frequenze assurde di lavoro per i proci, secondo me sarebbe ora di ottimizzarle queste cpu, di segare con il passato X86 e rivedere tutta l'architettura in modo da rendere la velocità meno rilevante.
in fin dei conti a cosa serve un procio a 30 ghz se poi per raffreddarlo ci vuole un impianto criogenico? rimaniamo con i piedi per terra, temperature e consumi spingeranno per un mercato diverso, meno legato alle velocità e basta, almeno per quello che sarà il segmento home.
quoto in pieno!! :D
beh rivedere l'x86 significherebbe, cambiare tutto il parco software! nn credo sia x niente fattibile!
Symonjfox
27-07-2004, 19:43
Originariamente inviato da khri81
beh rivedere l'x86 significherebbe, cambiare tutto il parco software! nn credo sia x niente fattibile!
Beh, già i 64 bit significa "cambiare tutto il parco software" e con cio? Il passaggio sarà graduale un po' come con sti 64 bit.
Comunque sia esistono già processori X86 che rendono più di altri a parità di clock, se si continua su questa strada, i limiti vanno molto più lontani, anche senza voler cancellare l'X86.
Esempio: Banias e Dothan: 2 ottimi processori che pur lavorando a frequenze "basse" possono competere e in alcuni casi battere i fratelli maggiori a 3 Ghz.
Continuare su quella strada secondo me porterebbe ad avere processori magari con la stessa freq di quelli attuali, però con una resa maggiore e minori sprechi.
E comunque già diversi anni fa avevano preventivato un limite che non avremmo superato, invece siamo già a 3.6 Ghz.
no con i 64bit nn devi cambiare tutto il parco software, xchè cmq si tratta di un estensione delle istruzioni, oltre a quelle a 32 bit già esistenti, nn di istruzioni completamente nuove! infatti il software a 32bit ci gira tranquillamente! :D
Symonjfox
27-07-2004, 20:24
Originariamente inviato da khri81
no con i 64bit nn devi cambiare tutto il parco software, xchè cmq si tratta di un estensione delle istruzioni, oltre a quelle a 32 bit già esistenti, nn di istruzioni completamente nuove! infatti il software a 32bit ci gira tranquillamente! :D
Si, ma intendevo dire che comunque è una cosa che nel X86 originale non esisteva e che per supportarla decentemente occorre comunque cambiare il parco software (altrimenti è inutile, giusto?). E' comunque una cosa che, almeno sulla carta, porterebbe ad aumentare le prestazioni.
E chi impedisce più avanti di fare processori a 128 bit o 256? Sono comunque delle cose in più.
Inoltre volevo segnalare che l'architettura può essere a 64 bit tipo Itanium 2, ovvero NON compatibile con l'X86, ma un mostro di potenza quando sfruttata bene.
cdimauro
27-07-2004, 21:20
Originariamente inviato da Symonjfox
Si, ma intendevo dire che comunque è una cosa che nel X86 originale non esisteva e che per supportarla decentemente occorre comunque cambiare il parco software (altrimenti è inutile, giusto?). E' comunque una cosa che, almeno sulla carta, porterebbe ad aumentare le prestazioni.
Indubbiamente. Ma tu dimentiche anche un fattore molto importante: la retrocompatibilità.
E chi impedisce più avanti di fare processori a 128 bit o 256? Sono comunque delle cose in più.
Il buon senso. ;)
Inoltre volevo segnalare che l'architettura può essere a 64 bit tipo Itanium 2, ovvero NON compatibile con l'X86, ma un mostro di potenza quando sfruttata bene.
Precisiamo: quando e SE sfruttabile.
Symonjfox
27-07-2004, 22:05
Cmq le mie sono solo ipotesi. Cmq il thread diceva "limite dei PROCESSORI" non degli "X86", quindi mi pare lecito far capire che l' X86 è solo un'architettura, ma ce ne possono essere infinite più o meno valide.
Ovviamente una più valida, allontana nel tempo il vero limite fisico.
Riguardo la retrocompatibilità, il problema si può aggirare con l'utilizzo di emulatori (hai mai giocato ad un gioco DOS con WinXP e un P4? Se ti va bene, giochi a 200x rispetto all'originale. Se usi DosBox, è un altro paio di maniche).
Ah dimenticavo, quando si raggiungerà (o quasi) il limite fisico dell'hardware, un ottimo metodo sarà ottimizzare tutto il software più possibile, in modo da sfruttare al meglio le risorse (cosa che si dovrebbe fare anche ora, ma a quanto vedo ci sono molti programmi che sono troppo pesanti per quello che devono fare, ovviamente pesanti perchè così uno è costretto a dover aggiornare il computer. ...).
cdimauro
28-07-2004, 06:02
Originariamente inviato da Symonjfox
Cmq le mie sono solo ipotesi. Cmq il thread diceva "limite dei PROCESSORI" non degli "X86", quindi mi pare lecito far capire che l' X86 è solo un'architettura, ma ce ne possono essere infinite più o meno valide.
Ovviamente una più valida, allontana nel tempo il vero limite fisico.
Quindi le architetture x86 sono le più valide, visto che resistono da 25 anni... ;)
Riguardo la retrocompatibilità, il problema si può aggirare con l'utilizzo di emulatori (hai mai giocato ad un gioco DOS con WinXP e un P4? Se ti va bene, giochi a 200x rispetto all'originale. Se usi DosBox, è un altro paio di maniche).
Perché emulare quando si può continuare ad avere il massimo della velocità?
Ah dimenticavo, quando si raggiungerà (o quasi) il limite fisico dell'hardware, un ottimo metodo sarà ottimizzare tutto il software più possibile, in modo da sfruttare al meglio le risorse (cosa che si dovrebbe fare anche ora, ma a quanto vedo ci sono molti programmi che sono troppo pesanti per quello che devono fare, ovviamente pesanti perchè così uno è costretto a dover aggiornare il computer. ...).
Ottimizzare è una parola grossa: non sempre è possibile farlo, anzi. I Compilatori generano del buon codice, ed è già tanto il livello a cui sono arrivati.
Se i programmi sono "pesanti", non possiamo giudicarli tutti allo stesso modo: possono eseguire lavori "pesanti", oppure sono scritti mali. Bisogna discernere... ;)
Symonjfox
28-07-2004, 11:09
Originariamente inviato da cdimauro
Se i programmi sono "pesanti", non possiamo giudicarli tutti allo stesso modo: possono eseguire lavori "pesanti", oppure sono scritti mali. Bisogna discernere... ;)
L'esempio che mi viene in mente: Adobe Reader 6 ... se lo compariamo al 5 la sua velocità nell'aprirsi ed aprire un file è incredibilmente bassa.
Avrà sicuramente 1000 funz in più, e infatti disattivandole mi ritrovo ad aprire i files abbastanza velocemente.
^TiGeRShArK^
28-07-2004, 11:30
Originariamente inviato da khri81
beh io ho sentito se nn ricordo male che i computer quantici nn andrebbero bene a svolgere compiti quotidiani, come far andare un so e i relativi prog!
mi sembra siano adatti x calcoli probabilistici o sbaglio?
infatti. i computer quantici saranno utili solamente nel caso di problemi risolvibili da algoritmi che necessiterebbero di una macchina di turing non determinisctica per funzionare.
infatti il bello dei computer quantici, è che, a differenza di quelli attuali, basati sull'architettura di Von Neumann, e quindi equivalenti ad una macchina di turing deterministica, sono comparabili ad una macchina di turing non deterministica.
Il bello di tutto ciò è che è possibile in alcuni casi utilizzare degli algoritmi che risolvano il problema più velocemente.
Facendo un esempio alla buona, immaginiamo di cercare una pallina rossa su un miliardo di palline nere. Con una macchina deterministica dovremo scorrere le palline una per una fino a che non ci imbattiamo in quella che cercavamo, invece, con una macchina non deterministica sarà possibile effettuare la ricerca molto più velocemente, scorrendo molte più paline in una volta, anzi, a livello teorico, potremo trovare la soluzione al problema in una sola passata.
X quanto riguarda i problemi nel salire in frequenza, mi sa che avete tralasciato un particolare MOLTO importante:
La tecnica litografica.
Come sapete i chip sono "scolpiti" sul silicio con delle radiazioni elettromagnetiche che passano attraverso una maschera rappresentante il circuito vero e porprio.
Il problema qui sorge a causa della risoluzione della radiazione luminosa impiegata.
Per ora si stanno utilizzando radiazioni ultraviolette, quindi con lunghezza d'onda di circa 35 nm. ma comunque la lunghezza d'onda deve essere più piccola della distanza del gate, perchè altrimenti non sarà possibile proiettare quest'immagine in maniera coerente sul wafer.
Cmq per cercare di ovviare a questi problemi si sta cercaqnd di utilizzare tecnologie di fotolitografia che sfruttino radiazioni a frequenze via via più elevate, in modo da superare questo limite.
sono d'accordo, ma x "scolpire" un singolo transistor sul silicio, dovrò pure avere un limite massimo, giusto? nn credo che si potrà fare un transistor formato da un unico atomo. magari :D
cdimauro
29-07-2004, 05:34
Originariamente inviato da Symonjfox
L'esempio che mi viene in mente: Adobe Reader 6 ... se lo compariamo al 5 la sua velocità nell'aprirsi ed aprire un file è incredibilmente bassa.
Avrà sicuramente 1000 funz in più, e infatti disattivandole mi ritrovo ad aprire i files abbastanza velocemente.
Hai messo il dito nella piaga: purtroppo AR6 è un vero mostro di lentezza.
Comunque non tutti i software "pesanti" sono programmati male...
cdimauro
29-07-2004, 05:37
Originariamente inviato da ^TiGeRShArK^
infatti. i computer quantici saranno utili solamente nel caso di problemi risolvibili da algoritmi che necessiterebbero di una macchina di turing non determinisctica per funzionare.
infatti il bello dei computer quantici, è che, a differenza di quelli attuali, basati sull'architettura di Von Neumann, e quindi equivalenti ad una macchina di turing deterministica, sono comparabili ad una macchina di turing non deterministica.
Il bello di tutto ciò è che è possibile in alcuni casi utilizzare degli algoritmi che risolvano il problema più velocemente.
Facendo un esempio alla buona, immaginiamo di cercare una pallina rossa su un miliardo di palline nere. Con una macchina deterministica dovremo scorrere le palline una per una fino a che non ci imbattiamo in quella che cercavamo, invece, con una macchina non deterministica sarà possibile effettuare la ricerca molto più velocemente, scorrendo molte più paline in una volta, anzi, a livello teorico, potremo trovare la soluzione al problema in una sola passata.
Bello sulla carta, ma bisogna vedere che in che modo sarà possibile "gestire" tutte queste "macchine" che lavorano in parallelo. L'idea di calcolare "immediatamente" una soluzione a un problema molto complesso è affascinante, ma se poi per riuscire a tirarla fuori da tutte le altri ci si impiega molto più tempo di una macchina deterministica, l'utilità viene a cadere... ;)
Forse s'è capito che sono UN PO' scettico... :p
digitalbrain
29-07-2004, 09:07
ot
beh avere una cpu da 30 GHz e poi avere un sottosistema di dischi rigidi come quelli di oggi non mi sembra poi un gran cambiamento. Secondo me un enorme aumento di velocità delle nostre macchine lo avremo quando abbandoneranno la tecnologia degli attuali hdd e useremo ram non volatili superveloci. (spero che ci si arrivi)
Pensate a quanto impiegherebbe il pc a caricare un programma, o anche windows, se usassimo una ram al posto dell'hdd alla velox di 6.4 GB al secondo.
AR6 caricato in un lampo. Non è solo la cpu responsabile della lentezza di caricamento dei prog... è l'hdd
fine ot
sono comunque anche io dell'idea che i limiti sono fatti per essere infranti, quindi sono fiducioso negli ingegneri che già ora studiano nuove soluzioni.
anche le memorie flash, sono lente più lente del più lento hd di oggi! quindi nn si risolverebbe nulla! l'unica cosa è aspettare!
Originariamente inviato da khri81
anche le memorie flash, sono lente più lente del più lento hd di oggi! quindi nn si risolverebbe nulla! l'unica cosa è aspettare!
chissa quanto!!!
credo molto ancora, xò sai il bisogno aguzza l'ingegno, ormai tutti sanno che il collo di bottiglia degli attuali pc sono gli hg! quindi ora c'è veramente bisogno di memorie alternative se si vogliono avere maggiori prestazioni!
Symonjfox
29-07-2004, 12:39
Gli hard disk hanno di positivo che costano poco per quello che fanno! Sono veloci, capienti e abbastanza affidabili.
Purtroppo i loro limiti sono ben diversi rispetto a quelli delle cpu.
Per esempio quando superano certe temperature d'esercizio, i dati si smagnetizzano, inoltre le testine devono spostarsi fisicamente, questo genera delle latenze.
Boh? chissà dove andremo a finire ...
Goldrake75
29-07-2004, 14:02
Originariamente inviato da khri81
anche le memorie flash, sono lente più lente del più lento hd di oggi! quindi nn si risolverebbe nulla! l'unica cosa è aspettare!
Non credo.... le memorie a stato solido riescono ad arrivare a tempi
di accesso dell'ordine dei nanosecondi, per gli HD si parla
di millisecondi, cioè milioni di volte più lenti.
Per esempio queste arrivano a 25 e 30 nanosecondi
www.st.com (http://www.st.com/stonline/press/news/year2003/ita/p1317mita.htm)
Goldrake75
29-07-2004, 14:08
Originariamente inviato da ^TiGeRShArK^
i
X quanto riguarda i problemi nel salire in frequenza, mi sa che avete tralasciato un particolare MOLTO importante:
La tecnica litografica.
Come sapete i chip sono "scolpiti" sul silicio con delle radiazioni elettromagnetiche che passano attraverso una maschera rappresentante il circuito vero e porprio.
Il problema qui sorge a causa della risoluzione della radiazione luminosa impiegata.
Per ora si stanno utilizzando radiazioni ultraviolette, quindi con lunghezza d'onda di circa 35 nm. ma comunque la lunghezza d'onda deve essere più piccola della distanza del gate, perchè altrimenti non sarà possibile proiettare quest'immagine in maniera coerente sul wafer.
Cmq per cercare di ovviare a questi problemi si sta cercaqnd di utilizzare tecnologie di fotolitografia che sfruttino radiazioni a frequenze via via più elevate, in modo da superare questo limite.
Per risolvere questo problema si potrebbe usare una sorgente di
raggi X.
Il problema ancora più grave nel salire in frequenza è il fatto che
nei processori vengono usati dei transistor che funzionano come
interrutori.
Per poter commutare esiste un limite fisico di velocità che dipende
dal tipo di semiconduttore e per il silicio sicuramente questo
limite arriva ben prima dei 30 GHz.
Per i transistor che lavorano a 12 GHz viene usato l'arseniuro di
gallio come semiconduttore, ed ha una velocità di propagazione più
elevata del silicio.
Magari sostiuirà il silicio in futuro.
digitalbrain
29-07-2004, 15:45
khri81
io non ho detto che ci sono già, ho detto solo che gli hard disk sono troppo lenti rispetto a un'ipotetica cpu a 30GHz e che in futuro va trovato un modo per aumentae la velox dei supporti di memorizzazione fissa.
Molti dicono che AR6 si carica lentamente. Beh una cpu più veloce non aumenterebbe la velox di caricamento in modo considerevole, una memoria flash veloce come la ram si.
La flash è ancora indietro, ma poter in un futuro raggiungere le velox della ram attuale con delle ram flash sarebbe un notevole bost. Negli ultimi tempi le flash hanno fatto passi da gigante contro la tecnologia degli hdd che a crescere in velox è lenta come una lumaca avendo alle spalle decine di anni.
Goldrake75
29-07-2004, 20:34
Originariamente inviato da digitalbrain
khri81
io non ho detto che ci sono già, ho detto solo che gli hard disk sono troppo lenti rispetto a un'ipotetica cpu a 30GHz e che in futuro va trovato un modo per aumentae la velox dei supporti di memorizzazione fissa.
Molti dicono che AR6 si carica lentamente. Beh una cpu più veloce non aumenterebbe la velox di caricamento in modo considerevole, una memoria flash veloce come la ram si.
La flash è ancora indietro, ma poter in un futuro raggiungere le velox della ram attuale con delle ram flash sarebbe un notevole bost. Negli ultimi tempi le flash hanno fatto passi da gigante contro la tecnologia degli hdd che a crescere in velox è lenta come una lumaca avendo alle spalle decine di anni.
Gli HD hanno una struttura meccanica che ne limita le
prestazioni, arrivare a velocità elevate
con una cosa del genere mi sembra improbabile,
di certo non arriverebbero comunque a velocità paragonabili
a quelle delle memorie a stato solido.
digitalbrain
29-07-2004, 21:35
x goldrake 75
esattamente quello che dico io
cdimauro
29-07-2004, 23:31
Originariamente inviato da Goldrake75
Per i transistor che lavorano a 12 GHz viene usato l'arseniuro di
gallio come semiconduttore, ed ha una velocità di propagazione più
elevata del silicio.
Magari sostiuirà il silicio in futuro.
Con quel che costa, mi sembra alquanto difficile. Quanto meno per il mercato dei desktop.
CONFITEOR
30-07-2004, 00:05
Originariamente inviato da Goldrake75
Per i transistor che lavorano a 12 GHz viene usato l'arseniuro di
gallio quali? dove?
*sasha ITALIA*
30-07-2004, 14:01
oh, ce ne saranno di strade diverse...mai sentito parlare di processori biologici?
*sasha ITALIA*
30-07-2004, 14:06
http://www.happywebonline.it/archivio/06-2003/arttecnologie.asp (e`pieno di errori)
Al computer restano solo 250 anni di evoluzione
Qualcuno però ha già stabilito un tempo limite oltre il quale non si potrà andare: 250 anni da oggi. Nel 2253, afferma Seth Lloyd, professore di Ingegneria meccanica al Mit di Boston, se facciamo una previsione seguendo la legge di Moore i computer, che oggi eseguono di 1010 operazioni al secondo, arriverebbero alle prestazioni dell’ultimo computer possibile che, del peso di 1 kg, effettuerà 1051 operazioni al secondo. C’è un piccolo problema però: a quel punto tutta la sua massa dovrebbe consistere di pura energia alla temperatura di qualche milione di gradi. Negli attuali Pc in effetti le prospettive, anche solo per i prossimi anni, non sono proprio allegre: le potenze dissipate dai circuiti sono in rapida crescita, ventole e sistemi di raffreddamento aumentano costantemente di dimensioni e consumano a loro volta energia. Ma senza andare troppo lontano nel tempo, Patrick Gelsinger, vicepresidente di Intel, ha recentemente ribadito che, se il trend di dissipazione del calore continuerà di questo passo, entro il 2005 i processori ad alta velocità saranno “caldi come un reattore nucleare, nel 2010 raggiungeranno la temperatura dei getti di un razzo, mentre nel 2015 assomigliaranno alla superficie del Sole”.
mah....
e poi ragazzi, non sara`una CPU, ma....
IBM Creates 350 GHz Transistor
http://www.wi-fiplanet.com/news/article.php/1494041
gigioracing
26-03-2023, 09:32
Eccomi.....:D
1 - LIMITE DI INTEGRAZIONE
Se si guarda la struttura del cristallo di silicio ....
http://www.webelements.com/webelements/elements/text/Si/xtal.html
si nota che la dimensione (arrotondata x eccesso) di un singolo
cristallo è di .... 600 pm = 0.6 nm e questo è il limite di
integrazione sul silicio monocristallino..:oink:
Quindi sotto il 1 nm non si scende !!!
Tabella riassuntiva:
Prescott = 90 nm
next 1 = 65 nm
next 2 = 35 nm
next 3 = 10 nm
ma già a 10 nm si potrebbero verificare dei grossi problemi ...:rolleyes:
2 - LIMITE DI FREQUENZA
Quando la lunghezza d'onda diventa paragonabile alla
dimensione del conduttore, allora questo si comporta
come una linea di trasmissione, a costanti distribuite ...
Ad esempio se il core ha dimensioni di 1x1 cm allora
la frequenza massima è di 30 GHz (per eccesso).
.... to be continued ... :sofico:
Wow ,e a dopo quasi 20 anni dal thread originale siamo arrivati a 5nm. Il limite si avvicina
fabius21
27-03-2023, 05:38
Wow ,e a dopo quasi 20 anni dal thread originale siamo arrivati a 5nm. Il limite si avvicina
Grazie per averla uppata la discussione.
mi ha fatto piacere leggerla, anche se più di qualche informazione è fuori dalla mia portata.
sertopica
27-03-2023, 07:23
Interessante rileggere una discussione del genere dopo 20 anni. :D
Qualcuno ci ha azzeccato alla fine. :cool:
Eccomi.....:D
ma già a 10 nm si potrebbero verificare dei grossi problemi ...:rolleyes:
.... to be continued ... :sofico:
Goldrake_xyz nel 2004 un po' di sfiga a Intel l'aveva tirata con questa profezia dei problemi dei 10nm :D
La legge di Moore è stata rispettata o è l'ennesima bufala?:D
gigioracing
14-05-2023, 09:37
La legge di Moore è stata rispettata o è l'ennesima bufala?:D
per adesso si , vedremo ai 1nm cosa succedera, se si ferma tutto o se chiederanno all intelligenza artificiale come fare:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.