PDA

View Full Version : TeraHerts mah!!!


486sx25Mhz
24-11-2004, 00:01
Ho letto da qualche parte che nell'arco di dieci anni i processori raggiungeranno velocità di elaborazione nell'ordine dei terahertz.
Questa cosa ha suscitato in me pensieri contrastanti.

La situazione attuale oggi è la seguente: abbiamo processori che viaggiano a 3400 mhz e che oggettivamente scaldano tantissimo, poi quì si può aprire una diatriba senza fine tra chi dice che è normale, e che i processori devono scaldare viaggiando a detrerminate frequenze e chi si preoccupa forse più del dovuto della temperatura della propria CPU!

Così si è venuta a generare una contro tendenza, persone che sperimentano e provano CPU-M per i propri desktop computer, frequenze più basse, temperature minori consumi ridotti!

Alla luce di queste considerazioni un processore ad un teraherts, che cosa sarà, che calore genererà, come sarà raffreddato, sarà mai attuata questa cosa e come si evolveranno tutti gli altri componenti che dovranno reggere il passo delle CPU, un bus a 100 Ghz!!!Boh!

Una cosa è certa, facendo delle proporzioni e delle considerazioni relative al passato

1992 -> 25-33 Mhz

2002 -> 1700-2000 Mhz

Quindi milioni di istruzioni al secondo maggiorate di circa 60 Volte


Volendo riproporre lo stesso fattore di crescita

Oggi -> 3000-3600

2014 -> circa 216 Ghz


Calcolando che la crescita del progresso aumenta in maniera esponenziale, si potrebbe anche raggiungere il terahertz per i nostri processori!

Speriamo che il database di hw regga fino al 2014 senza dover eliminare nulla, in modo da poter vedere se questi calcoli approssimativi erano esatti o meno, o una semplice profezia da stregone ammattito!

Belexes
24-11-2004, 07:56
Originariamente inviato da 486sx25Mhz
Ho letto da qualche parte che nell'arco di dieci anni i processori raggiungeranno velocità di elaborazione nell'ordine dei teraherts.


Al massimo TeraHertz.

Mah... se ci si arriverà non sarà certo con queste architetture... e comunque... ho già abbastanza casini adesso a scegliere l'upgrade giusto da fare
:muro:

486sx25Mhz
24-11-2004, 23:51
Mah... se ci si arriverà non sarà certo con queste architetture

Belexes
25-11-2004, 07:36
Originariamente inviato da 486sx25Mhz


bello il disegnino... hai qualche link? :D

MaxArt
25-11-2004, 07:55
Originariamente inviato da Belexes
Al massimo TeraHertz.
Se s'intende l'unità di misura, si scrive tutto in minuscolo: terahertz. Il simbolo va in maiuscolo (Hz), cui si può aggiungere il prefisso (maiuscolo o minuscolo a seconda dei casi). L'unità di misura inoltre va scritta senza accenti, a volte ho visto scritto "ampére"... :rolleyes:

Comunque mi chiedo quanto saranno più piccoli quei transistor. Già oggi stiamo fabbricando roba a 65 nm, ricordiamoci che questo vuol dire più o meno mezzo migliaio di atomi!

thewizardinblack
25-11-2004, 10:10
per quanto mi riguarda, non so se saranno THz o altro, però: un po' di tempo fa lessi di un ragazzo che nei primi anni '90 si faceva lo stesso conto sulle ram, prospettandosi nell'arco di un decennio una crescita dai 640 Kb a 16 Mb, vale a dire 30 volte superiore. Però sappiamo com'è andata, la crescita è stata almeno almeno 500 volte anzichè 30 :eek:
Usando quel fattore di crescita, dai 2-3000 Mhz odierni, si dovrebbe arrivare in 10-15 anni a:
2500 x 500 ==> 1.250.000 Mhz ==> circa 1200 GIGAHz ==> 1,2 THz

ma vieeeeniiiii quanta potenza! e secondo me scalderanno infinitamente meno dei vari prescott, barton, A64 altro!

khri81
25-11-2004, 11:15
ho seri dubbi che arriviremo ai terahertz!!!
la strada sarà quella di ottimizzare le cpu invece che farl correre sempre di più, nn vedete che si fa una fatica immane a dissipare il calore delle cpu attuali!!!
arriviremo ad avere cpu multicore con nn so 32 o 64 core in uno solo nel giro di 15-20 anni, oppure arriverà molto prima l'intelligenza artificile...

486sx25Mhz
25-11-2004, 12:12
Io credo che sia una questione di architetture e di materiali.

Non vedo grossi ostativi tecnici per il raggiungimento dei terahertz!

^TiGeRShArK^
25-11-2004, 12:33
i limiti intrinseci della tecnologia attuale sul silicio....
se non sbaglio si dovrebbe arrivare massimo a 10 nm con tale tecnologia...
Quindi oramai non siamo troppo lontani dal limite.
Altra cosa è se si trovano tecnologie alternative (transistor a nanotubi di carbonio, transistor ottici, computer quantistici....)

Marco71
25-11-2004, 17:30
...della unità di misura 10^9 Hz va scritto maiuscolo;

G-> Giga;
T-> Tera;

Diverso per ad esempio i sottomultipli:

n->10^-9
p->10^-12
f-> femto -> 10^-15 ecc.

Marco71.

checo
25-11-2004, 19:07
Originariamente inviato da 486sx25Mhz
Non vedo grossi ostativi tecnici per il raggiungimento dei terahertz!


in base a cosa non vedi grossi ostacoli?
in realtà è proprio il contrario
imho la frequanza non salirà molto nei prossimi anni , saliranno però le prestazioni .

per il discorso della ram, non centra, un conto è parlare di quantitativo un conto di velocità

486sx25Mhz
25-11-2004, 20:47
Non vedo ostativi perchè hanno gia creato transistor per così dire tridimesionali che consentiranno un flusso di impulsi elettrici maggiori!

85kimeruccio
25-11-2004, 21:51
imho nn vedremo mai + di 5ghz effettivi siccome tutti stanno puntando sul multicore... ;)

stbarlet
25-11-2004, 22:01
Originariamente inviato da 85kimeruccio
imho nn vedremo mai + di 5ghz effettivi siccome tutti stanno puntando sul multicore... ;)


i tera secondo me nn lo vedremo, almeno nel giro di 20 30 anni... molto + probabile che continuino ad introdrre altri core e renderli produttivi... cmq il disegnino postato nn illustra il "SOI"?

luckye
25-11-2004, 23:18
ma perchè poi bisogna andare a tera e tera ?? Il futuro è chiaramente calcolo parallelo a breve termine quantistico medio lungo. La pura frequenza non è presa più in considerazione ormai da tempo. Esauriamo i processi produttivi al silicio (rigorosamente dual e quad core) e poi verso il futuro ;)
Sarà da vedere se in futuro il pc sarà concepito come oggi o sarà una sorta di terminale (e allora un p200 potrebbe bastare) con tutto tramite lan (os compreso).
Insomma bisogna vedere dove andrà il mercato.

P.s si vedo molto verosimile l'ipotesi di terminali collegati a una lan a GB/s piuttosto che pc "indipendenti" come oggi. Così il pc passerebbe da scatolotto a sistema ad utilizzo immediato senza installazione di software ne antivirus ne hardware ect. ect.
Tutto on-demand dal tuo pc virtuale in remoto. Inoltre risiedendo i tuoi dati da specialisti non ci sarebbero più problemi di perdita dello stesso e per la riservatezza basterebbe far gestire ad apposite strutture il tutto. Ovviamente i dati in forma criptata a decriptazione biometrica. Sicuramente non ci sarebbero più violazioni della privacy di oggi :)

PPss le virgole non sono il mio forte :O

486sx25Mhz
25-11-2004, 23:25
Quindi tu vedi i Pc del futuro come una sorta di terminali stupidi, dove per stupidi si intende il non avere una propria capacità elaborativa, collegati ad una rete, magari wireless, con una banda così ampia da non far ripmiangere il bus di sistema!

luckye
25-11-2004, 23:37
Originariamente inviato da 486sx25Mhz
Quindi tu vedi i Pc del futuro come una sorta di terminali stupidi, dove per stupidi si intende il non avere una propria capacità elaborativa, collegati ad una rete, magari wireless, con una banda così ampia da non far ripmiangere il bus di sistema!

Beh più o meno. Guarda io penso (dopo aver iniziato con i "pc" con tutta la gamma commodore prima dovevo ancora nascere) che il pc ha bisogno di una svolta. La svolta mi auguro che possa essere qualcosa di simile a quello che mi aspetto.
In effetti ti ritroveresti con una periferica a basso consumo,basso inestetismo domestico,magari a costo zero (si rifanno con la vendita "dei prodotti") in cui l'hw è mantenuto da esperti che si sbarcano tutti gli sbattimenti di protezione dei dati. Tu potresti pagare un extra per aver maggiore capacita elaborativa dedicata o maggior spazio. Ovviamente dovrebbe disporre di periferiche usb o firewire (insomma quello che ci sarà) così potrebbe fare da segreteria,fax,lettore di tutti i file in formato digitale,stereo,insomma sarebbe davvero un tutto in uno per tutti (touch-screen) e possibilità della vecchia tastiera e mouse per i più "esperti".

Ovviamente più aziende in concorrenza in questo "virtual pc storage" con offerta e costi diversificati.

P.s anche il discorso della potenza per utente avrebbe un senso perchè mentro io scrivo sul forum la mia potenza elaborativa andrebbe a un utente che fa video editing quindi mediamente le persone che utilizzano il 100% della potenza fornita sarebbero ridotti. UN pò come internet,ti viene dato 256Kb/s o 10Mb/s ma se tutti ci collegassimo al massimo della velocità satureremo subito la banda ;)

jappilas
25-11-2004, 23:43
... una volta, era largamente adottato un modello concettuale, poi accantonato per concentrare la potenza di calcolo localmente, nella postazione del singolo utente (il "personal" computer... )

... ora che le risorse di calcolo "standard" sembrano pure eccessive, voi vedreste bene il ritorno del modello mainframe-terminale che si usava quando esse erano estremamente più costose...

....corsi e ricorsi storici ... :D:D:D

riguardo l' integrazione con la segreteria telefonica e/o gli altri elettrodomestici.... mi sa che la tendenza sia per alcune cose almeno, "divide et impera", cioè creare "apparecchietti" compatti, a basso consumo, con elettronica single-chip (guardavo in giro tutti questi router ADSL , con interfaccia Ethernet, firewall e altro: dei bellissimi System-on-chip con core ARM ... analogamente per i lettori dvd/divx della nuova generazione : anche i nuovi modelli LG , philips e samsung usano varianti del mediatek 1389 basato su core ARM e DSP... per la segreteria vedrei bene un qualcosa del genere, collegato in ethernet per il controllo remoto, e con funzione print server / fax server : avevo un vecchio print server lexmark che faceva esattamente questo, basterebbe un maggior livello di integrazione )

486sx25Mhz
25-11-2004, 23:47
Però un as400..ops 4000 tra qualche anno, vicino all'antenna centralizzata sul tetto ce lo vedo bene!:ave: as 4000

luckye
25-11-2004, 23:48
Originariamente inviato da jappilas
... una volta, era largamente adottato un modello concettuale, poi accantonato per concentrare la potenza di calcolo localmente, nella postazione del singolo utente (il "personal" computer... )

... ora che le risorse di calcolo "standard" sembrano pure eccessive, voi vedreste bene il ritorno del modello mainframe-terminale che si usava quando esse erano estremamente più costose...

....corsi e ricorsi storici ... :D:D:D

Per quanto mi riguarda si. Il gestire un pc è una cosa estremamente p@llos@ per chi non è interessato. Per il grande pubblico deve andare tutto,subito senza problemi.Così come è progettato "privato" non può essere funzionale,anche gli os del futuro non potranno garantire la necessaria stabilità. Ci saranno sempre problemi più o meno gravi e aggiornamenti da fare
:rolleyes:

jappilas
26-11-2004, 00:17
Originariamente inviato da luckye
Per quanto mi riguarda si. Il gestire un pc è una cosa estremamente p@llos@ per chi non è interessato. Per il grande pubblico deve andare tutto,subito senza problemi.Così come è progettato "privato" non può essere funzionale,anche gli os del futuro non potranno garantire la necessaria stabilità. Ci saranno sempre problemi più o meno gravi e aggiornamenti da fare
:rolleyes:

diventa pallosa se parti dal presuposto che anche in futuro l' "oggetto informatico" sarà, per l' utente, unico per tutti i tipi di compito , dal gioco in realtà virtuale (3D) allo scrivere documenti

io vedo più probabile che anche gli utenti medi (non solo gli appassionati) inizieranno a tenere in casa invece di una sola potentissima, più macchine, concentrando i compiti su una o l' altra a seconda del livello di prestazioni/consumo energetico ...ad esempio la navigazione su internet e l' instant messaging su uno, la grafica su un altro , una XBOX-N o un PC con GF9900 per giocare e solo giocare (magari su schermo panoramico )

in quest' ambito ( e cfr il mio post di prima, ho aggiunto un pezzo) stavo valutando l'eventualità di aggiungere i filtri bayesiani (antispam) a un programma di "multiplexaggio" delle email in corso di sviluppo con un amico: avere un "agente" che riceve e filtra tutte le email di in certo set di account e permette di riceverle da un' altra macchina o dalla stessa O con un client email O con normale browser, fa parte del programma di decentralizzazione PIU' specializzazione : l' agente (un prog server da una parte e client dall' altra in pratica) girerebbe su una macchinetta dedicata, su un embedded, oppure direttamente sullo stesso device che fa da firewall (che a sto punto è meglio abbia un minimo quantitativo di memoria di stoccaggio, magari compactflash...)

- tieni anche conto che se avessi terminali davvero stupidi, con tutte le risorse di calcolo "in remoto" , sì che l' utente non dovrebbe preoccuparsi di configurazioni, sicurezza ecc... ma porrebbe un piccolo problema: una volta dato un input (movimento del mouse diciamo) per avere il feedback bisognerà ricevere una massa di dati non indifferente solo per ridisegnare la schermata... quindi, tra il terminale e il mainframe ci dovrà essere una connessione *veloce*, diciamo almeno fast ethernet... ora, i 100 Mbit non ci sono dappertutto...
a meno che... nel futuro dorato la fibra sarà dappertutto ...

luckye
26-11-2004, 00:27
NO aspetta.......quì si parla di futuro,ovviamente un pc concepito come dico io sarebbe sempre acceso,carica una sorta di sistema operativo da rom e tutto ciò che è software dalla rete quindi non vedo dove sia il problema del mouse. Un pc così diventa realizzabile con rete gigabit in su ovviamente....ma qui si parla di terahertz e io non li vedo disponibili tra un anno ;)

Nessuno toglie che possieda quantitativi di memoria di qualche gb (ram) così da usarla come buffer per ripescare eventuali dati già presenti e diminuire il carico sulla rete ;-) insomma si ottimizza il tutto

jappilas
26-11-2004, 00:48
quì si parla di futuro,ovviamente un pc concepito come dico io sarebbe sempre acceso,carica una sorta di sistema operativo da rom e tutto ciò che è software dalla rete
praticamente hai reinventato il NetPC (detto anche "terminale intelligente" o- se non sbaglio, thin client ) che IBM , Corel, Sun e altri volevano lanciare a metà degli anni 90 come macchina a basso costo per ambienti di rete... ;)
altra idea praticamente "uccisa" all' epoca, dalla crescita esponenziale del "PC" come mercato, prestazioni, economicità di acquisto e mantenimento...

certo, avere un minimo di risorse di calcolo e memoria in locale eviterebbe di dover usare un mainframe e banda di trasmissione solo per avere un "feedback" dell' interfaccia utente , e consentirebbe di eventualmente, giocare senza ricorrere a V-GFoE / V-RoE ... (Virtual GeForce over Ethernet :D )
però allora non sarebbero più "terminali stupidi" ....;)

adesso, qualcosa in questo senso si può ottenere con Windows Embedded (praticamente XP Lite su flash memory on board ) ...
oppure recuperando una Main board, soprattutto industriale o mini atx, su cui riuscire a installare LinuxBIOS: è un progetto nato per i cluster (infatti in un cluster è meglio i nodi siano puri elementi di calcolo, idealmente solo cpu e ram, senza supporto, per esempio, ai dischi, alla tastiera ecc aggiunto al kernel) e consentirebbe di avere un kernel minimo avviato in 3 secondi

da lì il nodo / sistema può essere controllato in remoto, carica la workunit , accede alla rete, fa quello che viene fare ...

luckye
26-11-2004, 09:30
E infatti così sarebbe l'ideale...insomma dei pc mini-itx con epia eden@533 fanless bios su rom e 1Gb di ram buffer e magari un'hardisk allo stato solido di un 10ina di gb (insomma anche un microdrive con adattatore ata).
Condire il tutto con un lcd 15"......PERFETTO ! ;)
CHe comunque come detto la potenza di calcolo sarebbe incrementata da server collegati a sto punto tramite un bus p to p con il nostro pc che diveneterebbe un'estensione in remoto :p

486sx25Mhz
26-11-2004, 10:31
E poi i smanettoni che fanno, se lo guardano il PC!

Scherzo, è chiaro che sarebbe una ottima scelta per il 75% delle persone che utilizzano il Pc per necessità, un pò castrante per gli altri!

luckye
26-11-2004, 11:30
Originariamente inviato da 486sx25Mhz
E poi i smanettoni che fanno, se lo guardano il PC!

Scherzo, è chiaro che sarebbe una ottima scelta per il 75% delle persone che utilizzano il Pc per necessità, un pò castrante per gli altri!

beh così com'è oggi e l'esatto opposto......ottima scelta per il 25% degli smanettoni castrante per il restante 75% della popolazione ;)

checo
26-11-2004, 11:54
Originariamente inviato da 486sx25Mhz
Non vedo ostativi perchè hanno gia creato transistor per così dire tridimesionali che consentiranno un flusso di impulsi elettrici maggiori!


transistor tridimensionali? link che non capisco di che parli?

ostativi? l'hai scritto 2 volte :confused:

checo
26-11-2004, 11:55
Originariamente inviato da stbarlet
cmq il disegnino postato nn illustra il "SOI"?


si

checo
26-11-2004, 12:03
bel discorso quello dei net pc, però come non hanno avuto alcun successo negli anni 90 non lo avranno nel futuro immediato, poichè il limite è il collegamento, servirebbe minimo una linea a 2-3 gb/s, a meno che non si perda il significato di applicazione e venga tutto svolto web based, tramite browser fai tutto, sul browser vedi solo i risulatati e il tutto è computato dal server.

a sto punto però servirebbe un server ogni 2 perone e non la vedo na buona scelta

khri81
26-11-2004, 12:09
no no io voglio il mio pc indipendete dal resto e se mi tira mi attacco alla rete! ;)
ho sempre odiato i sistemi on-demand.

jappilas
26-11-2004, 12:32
Originariamente inviato da checo
bel discorso quello dei net pc, però come non hanno avuto alcun successo negli anni 90 non lo avranno nel futuro immediato, poichè il limite è il collegamento, servirebbe minimo una linea a 2-3 gb/s, a meno che non si perda il significato di applicazione e venga tutto svolto web based, tramite browser fai tutto, sul browser vedi solo i risulatati e il tutto è computato dal server.

a sto punto però servirebbe un server ogni 2 perone e non la vedo na buona scelta

più che altro, nel caso si abbia a che fare con dei "terminali stupidi" (che a rigore non dovrebbero avere risorse di calcolo neppure per un browser :rolleyes: ) occorrerebbe che il "server" (in realtà si tratterebbe esattamente del Mainframe anni 70, ovvero il "cervellone" :D ) avesse una potenza di calcolo paurosa: sì che una postazione presa singolarmente non sottoporrà compiti gravosi in modo trascendentale (app da ufficio, internet...) però moltiplicando per il numero di postazioni complessive... O_o

quello che vedrei bene e prob è quello che intendeva luckye è una cosa che comprenderebbe:
o) LAN fast ethernet o GbE (ok)
o) scatoletta router/firewall/proxy /antispam (si può fare, basterebbe aggiungere un SW e una cache per la posta a soluzioni basate su chip tipo il conexant 82310 o simili...)
o) serverino tipo NAS ma con funzioni netboot/etherboot (ok, esistono, costano ancora un po' ma sempre meno)

o) 1....N postazioni (in un appartamento potrebbero essere ad esempio una o più per stanza) che rimpiazzino i PC tuttofare attuali e con livelli di prestazioni (nonchè ingombro del cabinet, dal momento che cresce l' elettronica all' interno) variabile:
- ARM /Xscale 500 mhz per internet e la messaggistica e basta;
- "centrino" low frequency per le applicazioni "medie", matematiche, da ufficio ecc ;
- Workstation con CPU dual core per lavori di grafica / multimedia ecc , e solo quelli;
- Game-BOX con CPU e scheda grafica veloci , per i giochi e solo quelli o al limite poco altro (non esattamente una XBOX, perchè l' ambiente di esecuzione sarebeb lo stesso della Office- BOX, tranne che verrebbero caricati da una cartella remota sul NAS...)

ognuna di queste sarebbe una "scatola chiusa" (concetto che temo al pubblico appassionato e smanettone non sarà gradito) PRIVA di HD (tutto lo storage sarebbe sul modulo NAS), MA dotate di risorse di calcolo locali anche notevoli ma specifiche per il compito che devono fare , il che escluderebbe definitivamente che si tratti di terminali stupidi

... interessante il fatto che in quest' ottica di "specializzazione" e "separazione" dei compiti tra le varie scatolette , uno che andasse in un negozio di informatica dovrebbe dire: "mi dia un NAS e una Office-BOX" oppure "prendo questa Net-Box... il NAS? no grazie ne ho già uno ..."
:D

luckye
26-11-2004, 13:50
Originariamente inviato da jappilas
CUT


Questo si che è parlare ;)
Kmq non penso che anche allo stato attuale ci sia qualche problema di "potenza" di ipotetici server....un supercomputer come l'heartsimulator quanti PIV@3ghz potrebbe fare ?? TANTISSIMI !! :)

Inoltre si avrebbe una interconnessione tra i vari pc molto più intima di quella odierna. Ovviamente di una tpologia cosi....


http://www.tutorialpc.it/images/anestella2.gif

manuele.f
26-11-2004, 19:21
L'effettiva realizzazione sta certamente nella legge di moore...
ora mai siamo agli sgoccioli delle tecnologie al silicio..le microtecnologie...oltre i 0,06 um non si può andare...
si vedrà di risolvere con le nanotecnologie...vedi dna proteine ecc ecc

ho recentemente fatto una relazione sulla legge di moore...

http://manuelef.altervista.org/

486sx25Mhz
27-11-2004, 00:09
io credo, invece, che si arriverà al terahertz!

MaxArt
27-11-2004, 00:59
Originariamente inviato da manuele.f
ora mai siamo agli sgoccioli delle tecnologie al silicio..le microtecnologie...oltre i 0,06 um non si può andare...No, eh? Però si sa già quali saranno le dimensioni dei transistor dei futuri processori: dopo i 65 nanometri, saranno prima a 48 e poi a 32.

Non vedo le immagini sul tuo resoconto sulla legge di Moore.

manuele.f
27-11-2004, 13:05
guarda..non ci sono in quanto tuttora transistor a tecnologie minori allo 0,06 non esistono...
sono in fase di studio,ma per nulla matura e per nulla realizzabili...queste infatti prevedono l'uso di proteine e dna...
ora come ora si devono accontentare degli o,06 che sono tutta via difficilmente implementabili,anche se non per il momento,nelle catene produttive...

x 486sx25Mhz: difficilemte si arriverà ai TH,almeno per ora...
inanzitutto devi considerare che prendendo in considerazione i 286-P4 i primi che viaggiavano fino a 25MHz erano costruiti a 1,5um e i secondi che arrivano fino a 3,8Ghz sono a 0,09um...
per compiere un ulteriore balzo di questa rilevanza bisogna essere in grado di fornire tecnologie costruttive in grado di rendere realizzabili le cpu....e sopratutto che rendano conveniente la produzione di questi chip da parte delle case...

questo vorrebbe dire produrre chip a 5nm e non a 60 o 40 nm...
per cui ci vorranno anni anni e anni....
considerando il fatto che più si abbassa il processo di produzione maggiori sono i problemi di correnti di dispersione e chi + ne ha + ne metta:rolleyes:

MaxArt
28-11-2004, 08:07
Originariamente inviato da manuele.f
guarda..non ci sono in quanto tuttora transistor a tecnologie minori allo 0,06 non esistono...
sono in fase di studio,ma per nulla matura e per nulla realizzabili...queste infatti prevedono l'uso di proteine e dna...
ora come ora si devono accontentare degli o,06 che sono tutta via difficilmente implementabili,anche se non per il momento,nelle catene produttive...
Proteine e DNA? Scusa ma non mi risulta affatto. Prova a cercare in rete articoli su 45 e 32 nanometri (prima ho scritto 48), magari in abbinamento con Intel, e vedrai che la situazione non è così fantascientifica come credi.
Sono altresì le tecnologie sui circuiti organici che sono ancora in fase embrionale.

manuele.f
28-11-2004, 08:40
Originariamente inviato da MaxArt
Proteine e DNA? Scusa ma non mi risulta affatto. Prova a cercare in rete articoli su 45 e 32 nanometri (prima ho scritto 48), magari in abbinamento con Intel, e vedrai che la situazione non è così fantascientifica come credi.
Sono altresì le tecnologie sui circuiti organici che sono ancora in fase embrionale.
io faccio riferimento a gente che fa parte al centro di ricerca dell'università di modena...
se hai qualche link postalo che ne verifichiamo l'attendibilità...
oltretutto ho partecipato ad un convegno di un ingegnere israeliano che faceva parte del settore ricerca e sviluppo di IBM e poi ha aperto un centro di ricerca in israele...lui diceva la stessa cosa....oltre i 0,06 nada...

MaxArt
28-11-2004, 11:48
Mi è bastato mettere "intel 45 nanometers" in Google:
http://www.computerworld.com/hardwaretopics/hardware/story/0,10801,86855,00.html
Qui parla del processo e va un po' in dettaglio. Viene anche stabilita la data in cui il processo sarà abbastanza affinato da poterci fare processori: nel 2007, e non si può dire che sia così lontano nel futuro.

486sx25Mhz
28-11-2004, 12:42
E' quello che ho detto nel primo post, ma forse credevano che io lo avessi inventato!

checo
28-11-2004, 12:52
Originariamente inviato da manuele.f
un ingeniere israeliano che faceva parte del settore ricerca e sviluppo di IBM e poi ha aperto un centro di ricerca in israele...lui diceva la stessa cosa....oltre i 0,06 nada...


sono quelli che hanno sviluppato il pentium-m

P.S. non si scrive ingeniere

manuele.f
28-11-2004, 15:33
in effetti ho visto molti riferimenti ai 45nm...
vediamo di saltarci fuori insieme...
sto ingegnere ha proprio detto che non sarà possibile produrre cpu a meno di 0,06...
ora non vorrei che a livello di singolo transistor si possa arrivare ben sotto ai 0,06um...ma che poi per le applicazioni di massa questi processi non siano realizzabili...

guardate qui
http://www.xbitlabs.com/news/cpu/display/20031210043736.html

cdimauro
29-11-2004, 12:27
Forse si riferisce agli attuali sistemi litografici, che probabilmente dovranno essere cambiati per poter arrivare sotto i 60nm...

manuele.f
29-11-2004, 17:36
potrebbe essere...ma il docente parlava proprio di nanotecnologie....con l'implementazione di tecnologie nuovissime...

gli articoli che avete letto in rete si riferiscono a sperimentazioni o già ad implementazioni di massa delle relative tecnologie?perchè imho la cosa cambia e non di poco...:(

MaxArt
29-11-2004, 19:23
Sinceramente non ho letto niente di tecnico, ma solo qualche articolo che scendeva appena in dettaglio, come quello di cui ho fornito il link. Insomma, le notizie diffuse dagli stessi produttori...

cdimauro
30-11-2004, 12:37
Che io sappia, fino a 32nm si dovrebbero sviluppare e commercializzare tecnologie, per il prossimo futuro. Sotto, non so.

jappilas
30-11-2004, 13:45
Originariamente inviato da manuele.f
in effetti ho visto molti riferimenti ai 45nm...
vediamo di saltarci fuori insieme...
sto ingegnere ha proprio detto che non sarà possibile produrre cpu a meno di 0,06...
ora non vorrei che a livello di singolo transistor si possa arrivare ben sotto ai 0,06um...ma che poi per le applicazioni di massa questi processi non siano realizzabili...

guardate qui
http://www.xbitlabs.com/news/cpu/display/20031210043736.html
veramente il link mi si apre su una news che riporta:
AMD’s new 45nm transistor is expected to offer a high-confidence solution to many of the most critical challenges the semiconductor industry expects to face at the 45nm technology generation, according to AMD.

AMD’s new transistor design uses three gates, instead of one as in today’s transistors, and incorporates several innovations that allow for continued transistor gate scaling down to 20nm and below, while providing increased speed and decreased electrical leakage.
:D

MaxArt
01-12-2004, 09:33
Jappilas, a cosa ti volevi riferire con quel quote? :confused:

Ah, comunque una notizia fresca fresca:
"AMD to implant Axcelis for 45 nano tech"
http://www.theinquirer.net/?article=19967