PDA

View Full Version : Intel mostra i primi chip a 32 nanometri


Redazione di Hardware Upg
19-09-2007, 10:09
Link alla notizia: http://www.hwupgrade.it/news/cpu/22588.html

In concomitanza con l'IDF Intel mostra un test wafer costruito con tecnologia a 32 nanometri; sul mercato nel 2009

Click sul link per visualizzare la notizia.

wiltord
19-09-2007, 10:18
vabbè ma sono inarrestabili :D

Rubberick
19-09-2007, 10:19
Aggiungiamo a questo il fatto che intel ha deciso di entrare nel campo delle memorie ssd... =))) samsung e compagni fate attenzione!

lowenz
19-09-2007, 10:20
Veramente una macchina da conquista l'Intel degli ultimi tempi :D

ghiltanas
19-09-2007, 10:22
cmq 32 nm è veramente un processo critico, qui si che bisogna tirare fuori le balls per progettare le cpu...però nn posso ridurre a ultranza, ci sarà un limite fisico e credo che ci si stiano avvicinando molto

jp77
19-09-2007, 10:24
Aggiungiamoci pure che il progetto Larrabee potrà avere ripercussioni nel settore discrete GPU...Intel è veramente inarrestabile...

One More Thing: Larrabee does Graphics
We've known that Larrabee would be Intel's discrete GPU, but Intel never confirmed it until today. Intel always talked about Larrabee as being great for scientific computing and financial applications, today it finally confirmed that it would also be great for graphics.

http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3101&p=6

Rubberick
19-09-2007, 10:26
azz :D fusion l'hanno fatto loro senza aspettare amd...

Bulfio
19-09-2007, 10:26
Tranquilli, ancora poco, molto poco, e il limite fisico è raggiunto :D
A voler stare larghi, sono riusciti a fare UN MOS a 15nm, ma solo per ricerca. Già intorno ai 20nm c'è da tirare madonne a causa della resa.
Comunque in termini di anni, si parla del 2015.

monsterman
19-09-2007, 10:27
32nm certe volte mi chiedo come facciano a fare elementi così... sottili

ghiltanas
19-09-2007, 10:29
per me li svilupperanno in altezza dopo :sofico: , avremo dei processori cubici :asd:

Rubberick
19-09-2007, 10:30
Vabbe cmq non penso sara' un grossissimo problema.. avete visto quanto tempo sono rimasti tutti fissi sui 90nm? e' di recente che si sta correndo sempre + in basso... sui 45-32 nm ci si fermera' un po' e si ottimizzera' tutto il possibile... nel frattempo gli utenti saranno abituati all'idea di montare 2 cpu in ogni pc...

i layout delle mobo seguiranno a ruota...

Rubberick
19-09-2007, 10:31
32nm certe volte mi chiedo come facciano a fare elementi così... sottili

ma guarda che 32nm è la lunghezza del canale di gate dei mos che sono tipicamente disposti in orizzontale... :D

http://it.wikipedia.org/wiki/MOSFET

que va je faire
19-09-2007, 10:32
secondo me dopo il 2015 non si porrà + il probelma perchè i computer si saranno già ribellati contro i loro padroni e vivremo in una realtà virtuale mentre il nostro corpo reale si troverà in uno stato catatonico

ghiltanas
19-09-2007, 10:33
Vabbe cmq non penso sara' un grossissimo problema.. avete visto quanto tempo sono rimasti tutti fissi sui 90nm? e' di recente che si sta correndo sempre + in basso... sui 45-32 nm ci si fermera' un po' e si ottimizzera' tutto il possibile... nel frattempo gli utenti saranno abituati all'idea di montare 2 cpu in ogni pc...

i layout delle mobo seguiranno a ruota...

eh si probabilmente una volta raggiunti i 32 si punterà come nn mai all'ottimizzazione del tutto (specie del bus sempre che nn troveranno qualcosa di meglio, tipo itnerconnessioni ottiche)e si cominceranno ad affiancare + processori anche in sistemi desktop

Rubberick
19-09-2007, 10:33
secondo me dopo il 2015 non si porrà + il probelma perchè i computer si saranno già ribellati contro i loro padroni e vivremo in una realtà virtuale mentre il nostro corpo reale si troverà in uno stato catatonico

basterà tenerli all'oscuro dalla possibilità di creare sindacati :D

ghiltanas
19-09-2007, 10:34
secondo me dopo il 2015 non si porrà + il probelma perchè i computer si saranno già ribellati contro i loro padroni e vivremo in una realtà virtuale mentre il nostro corpo reale si troverà in uno stato catatonico

guarda, io anticipo tutti e in quello stato ci entro a novembre con crysis e cod4 :sofico:

Rubberick
19-09-2007, 10:35
eh si probabilmente una volta raggiunti i 32 si punterà come nn mai all'ottimizzazione del tutto (specie del bus sempre che nn troveranno qualcosa di meglio, tipo itnerconnessioni ottiche)e si cominceranno ad affiancare + processori anche in sistemi desktop

y tanto che cavolo si spera che una buona volta chi sviluppa software segua i produttori hardware invece di gongolarsi...

al giorno d'oggi abbiamo software sempre scritto male e poco ottimizzato contro una ricerca hardware paurosa e velocissima...

tutti i prossimi software dovrebbero essere scritti sfruttando i multicore..

erupter
19-09-2007, 10:37
Ma se dopo, sotto i 18nm non si riesce ad andare...
Che fanno?

Ricordo ancora qualche discussione dei tempi del netburst: quando c'era chi diceva che erano il futuro (non si sa poi su quali basi) e chi (io) diceva che il futuro era il parallelismo...
Non che ora sia famoso, e chissà dove sono finite quelle discussioni...
Nei meandri del mysql di HWUP immagino.

que va je faire
19-09-2007, 10:38
basterà tenerli all'oscuro dalla possibilità di creare sindacati :D

guarda, io anticipo tutti e in quello stato ci entro a novembre con crysis e cod4 :sofico:

doppio LOL

:sofico:

^TiGeRShArK^
19-09-2007, 10:44
:mbe:
1,9 miliardi di transistor TOTALI sull'intero wafer da 300? :mbe:
mi pare una grandissima svista dato che già le GPU a 90 nm da circa 500m transistor non occupavano certo un area di 90000mm^2 :D
più probabilmente è il quantitativo di transistor per singolo die dato che per 291Mbit di SRAM sono necessari circa 291M * 6 transistor ovvero 1 miliardo e 746 milioni che non è troppo dissimile dalla cifra citata :p

trecciolo
19-09-2007, 10:50
Prima la rincorsa al GHz (vedi Pentium4)...
poi la rincorsa ai multicore (dual , quad, octo)
ora al processo produttivo (65,45,32 nel giro di qualche anno)
Certo si proprio innovativa questa Intel :°D
Non sarebbe meglio andare + cauti (che nn vuol dire frenare la ricerca) e ottimizzare tutto?
bah ^^

canislupus
19-09-2007, 10:52
y tanto che cavolo si spera che una buona volta chi sviluppa software segua i produttori hardware invece di gongolarsi...

al giorno d'oggi abbiamo software sempre scritto male e poco ottimizzato contro una ricerca hardware paurosa e velocissima...

tutti i prossimi software dovrebbero essere scritti sfruttando i multicore..

Condivido in pieno. Sarebbe ora che il sw venisse ottimizzato. Cavolo abbiamo pc che non riescono MAI ad essere sfruttati al 100% delle loro potenzialità.

canislupus
19-09-2007, 10:53
Prima la rincorsa al GHz (vedi Pentium4)...
poi la rincorsa ai multicore (dual , quad, octo)
ora al processo produttivo (65,45,32 nel giro di qualche anno)
Certo si proprio innovativa questa Intel :°D
Non sarebbe meglio andare + cauti (che nn vuol dire frenare la ricerca) e ottimizzare tutto?
bah ^^

Ri-concordo...

Ginger79
19-09-2007, 11:03
Intel inarrestabile e pronostico anche invincibile!! .... AMD ha problemi di rese a 65nm e questi parlano già (in concreto) di refresh di Nehalem a 32nm. Una bomba!
Spero per loro che stiano già studiando un'alternativa alle architetture che conosciamo oggi altrimenti rischiano di raggiungere la meta tra pochissimo tempo... il limite fisico è vicino e già oggi IMO si dovrebbero vedere sistemi "alternativi" funzionanti (in fase di prototipo intendo).

Le soluzioni multiCPU prospettate da qualcuno non credo siano ipotizzabili, per questioni di consumo. Più probabile invece avere CPU con 100 core (modello terascale) dove il concetto di core non sarà più lo stesso di oggi (saranno sicuramente molto meno complessi di quelli attuali e si sfrutterà il parallelismo interno)

coschizza
19-09-2007, 11:18
Prima la rincorsa al GHz (vedi Pentium4)...
poi la rincorsa ai multicore (dual , quad, octo)
ora al processo produttivo (65,45,32 nel giro di qualche anno)
Certo si proprio innovativa questa Intel :°D
Non sarebbe meglio andare + cauti (che nn vuol dire frenare la ricerca) e ottimizzare tutto?
bah ^^


pero facendo cosi andresti in breve tempo preso e superato dalla concorrenza, quindi è una pessima idea.

Mariuccia
19-09-2007, 11:19
Prima la rincorsa al GHz (vedi Pentium4)...
poi la rincorsa ai multicore (dual , quad, octo)
ora al processo produttivo (65,45,32 nel giro di qualche anno)
Certo si proprio innovativa questa Intel :°D
Non sarebbe meglio andare + cauti (che nn vuol dire frenare la ricerca) e ottimizzare tutto?
bah ^^



è una cosa che mi fa indignare un pò perchè ti fa capire che la loro intenzione sarà quella di spremere come gli agrumi quello che hanno invece di produrre roba innovativa...fino ad un annetto/2 fa hw aveva riportato progetti molto innovativi da parte dlla stessa intel( tipo il processore che lavorava con fasci di luce ecc ecc) ora questa roba sembra sotto la sabbia:mbe:
tra l'altro come è gia stato detto il sw odierno è l'antitesi dell'ottimizzazione basti vedere che un win 95 coi proprio programmi gira quasi meglio si uno svista e programmi rispettivi :(
Insomma non si riescono a vedere i famosi "passi da gigante" nè in ambito hw nè in quello sw...con questo non critico quello che è stato fatto, solo che rode sentir parlare di progetti per poi vederli accantonati:(

que va je faire
19-09-2007, 11:25
invece io penso che la riduzione del processo produttivo è fondamentale in questo stadio dello sviluppo, perchè da un punto di vista fisico altrimenti tutti stì core, stà cache, il futuro controller di memoria e il futuro core gpu dentro la cpu non ci entrerebbero...

TheAlchemist
19-09-2007, 11:41
Il limite sara' imposto dall'effetto tunnel quantistico. Se si scende oltre una certa soglia di dimensione del canale dei transistor, cio' che oggi e' isolante a breve non lo sara' piu'. Quello che mostra la magnificenza dei dispositivi non e' il semiconduttore usato, ma il suo ossido, ovvero la parte che isola quel che deve condurre. Venuto meno l'isolante possiamo dire addio all'evoluzione dei nm dei microprocessori.
C'e' da aggiungere che e' vero che ci sono memorie a 20 o a 15 nm, ma le frequenze in gioco sono diverse. Non possono essere oggetti di paragone.
A mio avviso, se vogliamo progredire in campo dei computer dobbiamo puntare tutto sui computer quantistici. Probabilmente gia' i computer ottici possono aiutare molto.
Chissa', staremo a vedere ;)

Fx
19-09-2007, 11:52
:mbe:
1,9 miliardi di transistor TOTALI sull'intero wafer da 300? :mbe:
mi pare una grandissima svista dato che già le GPU a 90 nm da circa 500m transistor non occupavano certo un area di 90000mm^2 :D
più probabilmente è il quantitativo di transistor per singolo die dato che per 291Mbit di SRAM sono necessari circa 291M * 6 transistor ovvero 1 miliardo e 746 milioni che non è troppo dissimile dalla cifra citata :p

oh, due pagine di commenti e nessuno che ancora l'aveva notato

proprio vero che quando sparano cifre alte nessuno capisce più un cazzo (vedasi anche i TG, quando spesso si confondono di 3 ordini di grandezza)

Mariuccia
19-09-2007, 11:52
senza contare che, com'è scritto da molte parti, le materie "prime" stanno finendo dato l'abuso di questi anni...se nn si sbrigano tra un pò il pc andrannno a carbone:huh:

Cialtrone
19-09-2007, 12:38
In realtà di silicio al mondo ce n'è una quantità incredibile (tutte le rocce sono piene di silicio), solo che è meno economico ricavarlo..cmq x le soluzioni tecnologiche come le guide d'onda ottiche dovremo aspettare sicuramente qualche anno, per sostituire i transistor al silicio almeno una dozzina d'anni..e parlo sempre delle applicazioni che richiedono prestazioni estreme, perchè per tutte le applicazioni a basse prestazioni, il silicio andrà bene forse per sempre..

Mariuccia
19-09-2007, 12:47
In realtà di silicio al mondo ce n'è una quantità incredibile (tutte le rocce sono piene di silicio), solo che è meno economico ricavarlo..cmq x le soluzioni tecnologiche come le guide d'onda ottiche dovremo aspettare sicuramente qualche anno, per sostituire i transistor al silicio almeno una dozzina d'anni..e parlo sempre delle applicazioni che richiedono prestazioni estreme, perchè per tutte le applicazioni a basse prestazioni, il silicio andrà bene forse per sempre..

si ma c'è cmq un elevato costo di produzione e l'enorme utilizzo, inltre anche gli altri materiali intendevo ( le varie leghe per la costruzione di tutti i compenenti, i materiali del lcd ecc...)
speriamo bene e soprattutto speriamo in un buon riciclaggio :D

erupter
19-09-2007, 13:09
Gli interruttori ottici sono già pronti.
Solo che di norma sono "trasduttori" cioè trasformano un comando elettrico in uno di luce.
Le guide d'onda miniaturizzate (cristalli fotonici) pure sono "pronte".
Ma il passo dalla ricerca alla produzione è sempre molto lungo.
E' un po' come la famosa Optimus Keyboard: volete il meglio del meglio della tecnologia?
Guardate quanto tocca pagare...
E non scommetterei sulla regolazione delle molle dei tasti...

Il silicio va così tanto, e stenta ad essere abbandonato, perchè è relativamente semplice ottenere qualunque cosa.
Basta avere una striscia di silicio puro, e con drogaggi e ossidazioni si fa qualunque cosa.
Ma sono pur sempre strutture bidimensionali (a parte gli L-MOS).
Il problema è ricondurre il tutto ad una struttura bidimensionale facilmente realizzabile come un circuito elettronico.
Non è che esistono computer quantistici oppure ottici grossi come case, non ne esistono proprio.
Una volta che saremo riusciti a ricondurre il paradigma ad una tecnologia diversa allora potremo pensare a "condensare" spazialmente quella tecnologia e inventare nuovi sistemi produttivi.
Ma prima va finalizzato il concetto.
Come deve essere un processore quantico? o uno ottico?
Al momento semplicemente nessuno lo sa.

TheAlchemist
19-09-2007, 13:10
Piu' che di silicio parlerei di semiconduttori. Si stanno usando sempre piu' altri tipi di leghe. Attualmente sto progettando laser con nitridi. Il problema non e' il reperimento della materia prima, anche perche' le scienze dei materiali ci daranno sempre un'alternativa.
Il problema e' la dimensione fisica del canale dei transistor.

McGraw
19-09-2007, 13:23
Quando escono i primi Phenom a befana?
Si va bene .. CIAO!

Pleg
19-09-2007, 14:16
Prima la rincorsa al GHz (vedi Pentium4)...
poi la rincorsa ai multicore (dual , quad, octo)
ora al processo produttivo (65,45,32 nel giro di qualche anno)
Certo si proprio innovativa questa Intel :°D
Non sarebbe meglio andare + cauti (che nn vuol dire frenare la ricerca) e ottimizzare tutto?
bah ^^

Guarda che questo e' quanto e' successo dagli albori dell'era dei calcolatori, non dai pentium 4 in avanti :-) Quarant'anni fa i transistor in un chip si contavano a qualche migliaio e avevano dimensioni di canale di decine di migliaia di nm, e pian pianino sono scesi; andavano a meno di un megahertz, e pian piano sono saliti; hanno man mano incorporato sempre piu' logica, poi coprocessori, poi sono diventati multiprocessore eccetera... E' cosi' che funziona: un costante progresso in tutte queste aree (costante e sorprendentemente regolare: la famosa legge di Moore e' rimasta valida con ottima approssimazione dalla sua formulazione ad oggi, il numero di transistor per chip e' effettivamente raddoppiato ogni 18 mesi per decenni, con picchi e valli ma in media ha il comportamento e' stato quello).

Domanda: cosa vuol dire "ottimizzare tutto"?

Pleg
19-09-2007, 14:22
è una cosa che mi fa indignare un pò perchè ti fa capire che la loro intenzione sarà quella di spremere come gli agrumi quello che hanno invece di produrre roba innovativa...

Ma come! Abbiamo un articolo dove si parla di processo sempre piu' piccolo, processori a 2-4-8 core + multithread, nuovi set di istruzioni, nuovi bus di collegamento, collegamenti ottici on-chip... che cosa intendi per "innovativo"? :-)
E poi, se non ci spremessero come agrumi non potrebbero fare proprio nulla di innovativo, ne' ora ne mai (considera i miliardi di dollari che costano le fab e gli altrettanti che vanno investiti in ricerca: quello che vedi oggi sul mercato e' stato pensato minimo 10-20 anni fa e piano piano trasformato dall'idea di qualche ricercatore ad un prodotto completo e utilizzabile).

^TiGeRShArK^
19-09-2007, 14:46
Insomma non si riescono a vedere i famosi "passi da gigante" nè in ambito hw nè in quello sw...con questo non critico quello che è stato fatto, solo che rode sentir parlare di progetti per poi vederli accantonati:(
ehmm...
non sono accantonati...
hanno bisogno ancora di MOOOLTISSIMA ricerca e sviluppo.
La prima volta che sentii parlare di processori con interconnessioni a raggi di luce era verso l'inizio dei primi anni 90...
e ovviamente ai tempi si paralva anche di processori quantistici.
Dunque che fine hanno fatto?
sono stati accantonati?
neanke x idea...sono semplicemente in una frase ancora TROPPO prematura per essere commercializzati.
E cmq ancora il silicio ks km me ha da dire la sua almeno x i prox 5 anni :p

^TiGeRShArK^
19-09-2007, 14:48
Gli interruttori ottici sono già pronti.
Solo che di norma sono "trasduttori" cioè trasformano un comando elettrico in uno di luce.
Le guide d'onda miniaturizzate (cristalli fotonici) pure sono "pronte".
Ma il passo dalla ricerca alla produzione è sempre molto lungo.
E' un po' come la famosa Optimus Keyboard: volete il meglio del meglio della tecnologia?
Guardate quanto tocca pagare...
E non scommetterei sulla regolazione delle molle dei tasti...

Il silicio va così tanto, e stenta ad essere abbandonato, perchè è relativamente semplice ottenere qualunque cosa.
Basta avere una striscia di silicio puro, e con drogaggi e ossidazioni si fa qualunque cosa.
Ma sono pur sempre strutture bidimensionali (a parte gli L-MOS).
Il problema è ricondurre il tutto ad una struttura bidimensionale facilmente realizzabile come un circuito elettronico.
Non è che esistono computer quantistici oppure ottici grossi come case, non ne esistono proprio.
Una volta che saremo riusciti a ricondurre il paradigma ad una tecnologia diversa allora potremo pensare a "condensare" spazialmente quella tecnologia e inventare nuovi sistemi produttivi.
Ma prima va finalizzato il concetto.
Come deve essere un processore quantico? o uno ottico?
Al momento semplicemente nessuno lo sa.
per quello quantistico l'avevano fatto funzionare per compiere un operazione a 4 qu-bit se non erro..circa l'anno scorso o due anni fa..
Ma da lì a fare qualcosa che assomigli ad un processore odierno ce ne deve passare di acqua sotto i ponti :p

^TiGeRShArK^
19-09-2007, 14:52
si ma c'è cmq un elevato costo di produzione e l'enorme utilizzo, inltre anche gli altri materiali intendevo ( le varie leghe per la costruzione di tutti i compenenti, i materiali del lcd ecc...)
speriamo bene e soprattutto speriamo in un buon riciclaggio :D
sinceramente dubito ke finiremo mai il silicio :p

On Earth, silicon is the second most abundant element (after oxygen) in the crust, making up 25.7% of the crust by mass.

TheAlchemist
19-09-2007, 17:29
La difficolta' nei processori quantistici risiede non tanto nell'accorpare le trappole di ioni che lo costituiscono, quanto nel cablaggio necessario per leggere/scrivere qubit. Servirebbero grandi campi in dimensioni ridottissime (e gia' con i processori attuali non sono piccoli).
Se si riuscisse a superare questo scoglio potremmo ottenere qualcosa di molto interessante :)

ruwenzori
19-09-2007, 23:30
al giorno d'oggi abbiamo software sempre scritto male e poco ottimizzato contro una ricerca hardware paurosa e velocissima...

in effetti questo fa riflettere.
hardware failures non sono ammessi, ma nel software siamo elastici e ci aspettiamo bug e crash...........come mai?
il mio pc ha 6 anni e tira ancora come un forsennato..........e come esempio Vista che è programmato con le recenti conoscenze in campo di programmazione fa acqua da tutte le parti......
come mai questo squilibrio?
giochi, programmi........ti aspetti il crash da un momento all'altro e nemmeno ci rimani troppo stupefatto quando accade.......ma l'hardware.......eh no. quello no.
lo sai che mi hai dato veramente da pensare?
non capisco davvero questo squilibrio.
sia software che hardware sono parte dell'economia attuale (il tempo è denaro, utili, fatturati, ecc).
allora come mai una tale precisione chirurgica e puntigliosità per il secondo e non altrettanto per il primo?
nemmeno da dire che l'hardware è + importante.....sono entrambi critici nel funzionamento complessivo....................
mi hai fatto infilare in un vicolo cieco Rubberick, ci sto ancora pensando ai motivi di questa nostra attuale situazione......................

Tranqui
20-09-2007, 01:45
hardware failures non sono ammessi, ma nel software siamo elastici e ci aspettiamo bug e crash...........come mai?


Non è una questione di impegno differente nei 2 ambiti.
La spiegazione è relativamente semplice:
un componente hardware può essere testato e risultare funzionante al 100% con un margine d'errore molto basso.
Il testing del software invece è un procedimento molto particolare, che per definizione non porta MAI a risultati certi. Nessun test potrà mai assicurarti che un programma funzioni in tutte le possibili condizioni.
Se vuoi approfondire basta sfogliare un qualsiasi libro che tratti di ingegneria del software ;)

P.S. Ovviamente se parliamo di software scritto male nel senso di "poco ottimizzato", come intendeva Rubberick, allora sono pienamente d'accordo sul fatto che dovrebbero darsi una svegliata :rolleyes:

Sajiuuk Kaar
20-09-2007, 05:17
mi spiegate perchè la metà delle news della newsletter di oggi riguardano intel? O.o la cosa non mi è molto chiara...

coschizza
20-09-2007, 09:10
mi spiegate perchè la metà delle news della newsletter di oggi riguardano intel? O.o la cosa non mi è molto chiara...

in america l'intel ha aperto la sua classica IDF Intel Developer Forum, appuntamento annuale per presentare i suoi prodotti, la fiera dura circa 3 giorni.

Lucas Malor
20-09-2007, 10:51
sinceramente dubito ke finiremo mai il silicio :p

Guarda che gia' adesso il silicio e' diventato abbastanza caro... il silicio che serve per produrre chip deve essere puro, e purificarlo costa. Per questo le aziende adesso puntano sul riciclo dei pc, e' silicio puro a portata di mano.

La difficolta' nei processori quantistici risiede non tanto nell'accorpare le trappole di ioni che lo costituiscono, quanto nel cablaggio necessario per leggere/scrivere qubit. Servirebbero grandi campi in dimensioni ridottissime (e gia' con i processori attuali non sono piccoli).
Se si riuscisse a superare questo scoglio potremmo ottenere qualcosa di molto interessante :)

Cioe'? Spiega spiega ^_____^ Hai un qualche link a riguardo?

TheAlchemist
20-09-2007, 15:29
Link no, ma ho gli articoli cartacei scritti da alcuni dei pionieri del settore.
La questione e' lunga e complicata, e fondamentalmente non ho tanto tempo dato che sono impegnato con la tesi.
Ad ogni modo, per scrivere e leggere qubit bisogna porre delle ion traps tra 4 conduttori, due con sorgenti ac e due con sorgenti dc, poste in un determinato modo. Inoltre per stabilire lo stato quantistico delle particelle servono dei laser.
In piu' c'e' da considerare che i campi richiesti per i vari processi sono molto alti, almeno per ora. Capisci da solo che al crescere del numero dei qubit il sistema diventa molto complesso.
Bisognerebbe capire quanti qubit servono per svolgere lo stesso compito di un calcolatore odierno. C'e' da dire che se avessimo a disposizione 32qubit avremo una possibilita' di combinazioni che non e' paragonabile a quella dei nostri processori a 32bit. In un articolo di Christopher Monroe, Jonatha D. Sterk e Daniel Stick si dice che "con solo 300qubit potremmo fare calcoli con numeri pari agli atomi dell'universo" ;)

Lucas Malor
21-09-2007, 11:27
per scrivere e leggere qubit bisogna porre delle ion traps tra 4 conduttori, due con sorgenti ac e due con sorgenti dc, poste in un determinato modo.
Ah ecco! Immagino che servano per intrappolarli in uno stato quantico definito. Posso capire perche' servano dei campi forti...

se avessimo a disposizione 32qubit avremo una possibilita' di combinazioni che non e' paragonabile a quella dei nostri processori a 32bit.
Ho letto qualcosa a riguardo, ma non ci ho capito granche'... so solamente che sfruttano il fatto che uno stato quantico e' una sovrapposizione di una base stati quantici (ad esempio lo spin e' una sovrapposizione degli stati quantici di spin lungo le tre direzioni spaziali). Come facciano a sfruttare questa proprieta' per fare calcoli proprio non lo so!

C'e' anche da dire che la cosa piu' fenomenale e' che virtualmente un computer quantistico puo' operare alla velocita' della luce, grazie al fenomeno di "teletrasporto" quantistico:

http://it.wikipedia.org/wiki/Teletrasporto_quantistico

Questo e' tutto quello che so io. 'Sto campo e' di una cosi' dannatissima difficolta'... che non ci vuole un genio per capire perche' va cosi' a rilento il progetto.

PS: in deretano alla balena per la tesi :-)

TheAlchemist
21-09-2007, 14:11
Ah ecco! Immagino che servano per intrappolarli in uno stato quantico definito. Posso capire perche' servano dei campi forti...


esattamente :)


Ho letto qualcosa a riguardo, ma non ci ho capito granche'... so solamente che sfruttano il fatto che uno stato quantico e' una sovrapposizione di una base stati quantici (ad esempio lo spin e' una sovrapposizione degli stati quantici di spin lungo le tre direzioni spaziali). Come facciano a sfruttare questa proprieta' per fare calcoli proprio non lo so!


Si puo' semplificare in modo estremo la cosa dicendo che un qubit puo' essere 1, 0 o tutti e due :)


'Sto campo e' di una cosi' dannatissima difficolta'... che non ci vuole un genio per capire perche' va cosi' a rilento il progetto.


Bhe si, immagino che non sia tra le cose piu' facile da capire. Le cose vanno a rilento per le nostre "limitate" conoscenze matematiche. Paradossalmente un tempo non esistevano i calcolatori e c'era chi si ingegnava a creare nuovi modelli matematici per effettuare dei calcoli o per renderli piu' efficienti.
Con l'avvento dei calcolatori questa cosa si e' un po' appiattita, e per poter creare nuovi computer servirebbero nuovi approcci matematici...proprio quelli che i computer stessi stanno uccidendo.
Questa cosa la sto vivendo personalmente. Ci hanno insegnato che il mondo delle equazioni differenziali alle derivate parziali e' ancora in una fase iniziale, o che comunque i metodi per risolverli non sono efficienti. E cosa si e' fatto? Si risolvono al pc. Il problema e' che al pc si risolvono le cose che fin'ora sono state scoperte. In questo modo non si e' incentivati a pensare a metodi piu' intelligenti per risolverle e il tutto ristagna.
Se nessuno tirera' fuori dei nuovi modelli matematici per spiegare i fenomeni quantistici...dubito che ci possa essere un reale decollo di questa tecnologia.


PS: in deretano alla balena per la tesi :-)


Crepi! Che poi, tra l'altro, la tesi ha molto a che fare con queste cose :D

ruwenzori
21-09-2007, 23:26
Nessun test potrà mai assicurarti che un programma funzioni in tutte le possibili condizioni
per me il dio mercato detta legge e porta a far uscire software non ben testato, solo per rispettare scadenze. un test fatto bene porta certezze, anche in ambito software, il resto sono scuse per far passare leciti degli errori di "immaturità" del codice.
per quanto riguarda la situazione hardware, non è facile essere certi che ogni possibile incastro funzioni...non la vedo realmente così semplice rispetto a come la dipingi tu con il software.
anzi, mi sa che i testi a cui ti riferisci siano un po vecchiotti, visto che oggi come oggi le piattaforme di sviluppo si sono nella maggior parte dei casi "fuse" quindi si sta anche andando verso il cross-coding, e questo aiuta gli interscambi tra varie piattaforme che tempo fa erano tra loro incompatibili.
continuo a credere che c'è uno squilibrio tra precisione e qualità dei prodotti hardware e software.
il testing non è semplice per nessuno. un software, una volta decisa la piattaforma di sviluppo e il sistema operativo target, viene ottimizzato a forza di test e debug, ma quello fa e quello deve fare, su quel sistema operativo.
ritengo ci siano molti + possibili incastri da tenere di conto per quanto riguarda le varie scelte hardware........
forse il motivo è che l'hardware difettoso lo cambiano in garanzia, mentre il software difettoso......te lo tieni e punto. :D
boh, 32 nanometri sono una faticaccia immane di precisione.......mi sa che siamo davvero vicini..........