PDA

View Full Version : E il primo calcolatore quantistico è realtà!


lowenz
11-08-2009, 16:49
Magnum Gaudium! :D

http://physicsworld.com/cws/article/news/40067

Researchers in the US claim to have demonstrated the first small-scale device to perform all the functions required in large-scale ion-based quantum processing. Although the individual stages or groups of stages in quantum computing have been demonstrated previously, this new device is said to perform a complete set of quantum logic operations without significant amounts of information being lost in transit. As a result, the device represents an important step in the quest for a practical quantum computer, say the researchers based at the US National Institute of Standards and Technology (NIST) in Boulder, Colorado.

Where conventional computers store data as “bits” with value 1 or 0, in quantum computing data is stored as “qubits” which can hold more than one value at the same time. The upshot of this phenomenon, known as superposition, is that quantum computers could potentially store and process unprecedented amounts of data. What’s more, quantum particles can become “entangled”, allowing them to share a much closer relationship than classical mechanics allows in which data is transferred instantaneously between entangled particles regardless of their separation distance.

The quantum path

The concept of quantum computing gathered significant momentum in 1994 when the mathematician Peter Shor invented an algorithm to show that quantum computation could factor numbers significantly faster than in classical computation. The implication was that quantum computers could operate at ultra-high speeds, which could be applied to solving complex problems like cracking some of today’s most widely used encryption codes. However, it quickly became apparent that researchers would have a very difficult task of putting this into practice due to the delicate nature of quantum information, particularly when quantum data is being transferred between locations.

Despite this limitation, some simple quantum algorithms have been executed in the past few years. Perhaps most notable was the first and only demonstration of Shor's factoring algorithm, using nuclear magnetic resonance, by Lieven Vandersypen and his colleagues at the IBM Almaden Research Center in California.

One promising approach to realizing quantum algorithms is the storage and transfer of quantum data in ultracold ions. This is the approach taken by the group at NIST, led by Jonathan Home, which, over the past few years, has demonstrated all of the steps needed for quantum computation: (1) "initialize" qubits to the desired starting state (0 or 1); (2) store qubit data in ions; (3) perform logic operations on one or two qubits; (4) transfer information between different locations in the processor; and (5) read out qubit results individually.

Caught in a trap

In this latest research, Home’s group have now managed to combine all of these separate stages for the first time. The team held two beryllium atoms in a trap before manipulating the energy states of each ion using an applied ultraviolet laser pulse in order to store quantum data. Electric fields were then used to move the ions across macroscopic distances — up to 960 micrometres — between different zones in the trap. The researchers repeated a sequence of 15 logical operations 3,150 times on each of 16 different starting states and found that the processor worked with an overall accuracy of 94 per cent.

One of the key innovations employed by the NIST researchers was to use two partner magnesium ions as “refrigerants” for cooling the beryllium ions as they are being transported. This “sympathetic cooling” enabled logic operations to continue without any additional error due to heating incurred during transport. “We have incorporated transport, and explicitly shown that it does not impede our ability to do further computation — this is a crucial step for building a large-scale device,” Home told physicsworld.com.

Early response to this development from the research community is positive. “Home and his team have shown the individual pieces of the puzzle to work separately in a series of beautiful experiments in recent years. Now, in this tour-de-force, they put the pieces of the puzzle together and made them all work in one experiment,” said Boris Blinov, a quantum computing researcher at the University of Washington.

The road ahead

Hans Bachor, a quantum optics specialist at the Australian National University is also impressed. “The work is indeed a great step forward and most impressive — it demonstrates all the key steps required in the computing cycle.” Bachor, however, also warns of technical challenges that lie ahead. “The question is whether they can keep the ion in the ground state. I am not aware of any in principle problems, but it will require more tricks to invented,” he added.

Home told physicsworld.com that his team are continuing to develop their trapped ion system with a focus on two specific problems. The first area is to improve the logic operation accuracy: the accuracies required for a large scale device are 0.9999, where the accuracy in this device is 0.95. “Here we are limited by the control we have over our laser beams, and the power of these beams,” he said. The second area is to build larger devices. “Crosstalk between different parts of the processor may be a problem which only exists in larger devices. The classical computer control, and the need for precision control of large numbers of electrodes and laser beams, represents a major technical challenge,” he said.

Markus Aspelmeyer, a quantum optics researcher at the University of Vienna recognizes another of the challenges involved in scaling up. “It will be a challenge to minimize the individual gate errors and to gain control over a large number of ions on a single chip,” he said. Adding, “This is however essential to perform lengthy calculations on a future quantum computer. It is an exciting challenge to both engineering and quantum information science and it is not clear yet where the exact limitations will be.”

This research was reported in Science Express.

Ziosilvio
11-08-2009, 17:20
OK, adesso vediamo se i risultati saranno riprodotti ;)

Siddhartha
11-08-2009, 17:34
mi iscrivo nell'attesa che qualcuno chieda se è possibile farci girare Crysis! :D

GaussField
11-08-2009, 17:58
il problema del computer quantistico e' tutta qui' : "overall accuracy of 94 per cent" :asd:
e questo potrebbe essere un occasione per degradare la copia della copia :fiufiu:

lowenz
11-08-2009, 18:13
il problema del computer quantistico e' tutta qui' : "overall accuracy of 94 per cent" :asd:
e questo potrebbe essere un occasione per degradare la copia della copia :fiufiu:
Oddio, non che non accada già.....per questo esistono i metodi di controllo e correzione dell'errore come il CRC o la parità.....

GaussField
11-08-2009, 18:23
Oddio, non che non accada già.....per questo esistono i metodi di controllo e correzione dell'errore come il CRC o la parità.....
la parita' e possibile solo sui dati memorizzati, non sull' elaborazione numerica :stordita:

T3d
11-08-2009, 18:32
The classical computer control, and the need for precision control of large numbers of electrodes and laser beams, represents a major technical challenge

ce n'è di lavoro da fare :stordita:

lowenz
11-08-2009, 23:05
la parita' e possibile solo sui dati memorizzati, non sull' elaborazione numerica :stordita:
Beh, parlavi di copia :D

E c'è elaborazione numerica che non usi registri? :mbe:

Bisogna capire in che punto capita l'errore, dall'articolo non si capisce se la cosa riguardi la consistenza del dato o dell'operazione stessa :fagiano:

thewebsurfer
13-08-2009, 17:38
la parita' e possibile solo sui dati memorizzati, non sull' elaborazione numerica :stordita:

premetto che non studio fisica, ma mi sembra di capire che i computer quantistici siano completamente diversi già dalle basi: lavorare su una macchina a precisione infinita stravolge sicuramente tutto quello che in materia di algoritmi abbiamo visto fino ad ora..quindi ha ben poco senso parlare di correzione errori nella concezione che tutti abbiamo

lowenz
13-08-2009, 17:41
La precisione dipende sempre dalla rappresentazione numerica che usi, qui penso intenda proprio correttezza nel leggere il qbit.

thewebsurfer
13-08-2009, 17:49
La precisione dipende sempre dalla rappresentazione numerica che usi

e che c'entra con la macchina quantistica?
Alcuni criticano le possibilità dell'informatica quantistica, in quanto per poter avere elevate precisioni sia in ingresso che in uscita, occorre sia tempo che energia. Questo è senz'altro vero, tuttavia vi è un aspetto che viene sottovalutato: la precisione è infinita durante il calcolo

ho fatto un esempio come tanti per dire che, da quel poco che so di teoria quantistica, non ha senso parlare di tecniche classiche di memorizzazione, calcolo o correzione..poi non so:)
"un algoritmo quantistico è sempre stabile" una frase del genere farebbe eccitare sessualmente qualunque professore di calcolo scientifico o analisi della complessita:D

entanglement
14-08-2009, 10:12
La precisione dipende sempre dalla rappresentazione numerica che usi, qui penso intenda proprio correttezza nel leggere il qbit.

la meccanica quantistica da per definizione risultati statistici e non deterministici :D
ma la precisione assegnabile è virtualmente limitata solo dal numero di iterazioni.

sulla computazione quantistica non ne so effettivamente molto, ma il risultato che viene riportato non è esattamente il richiesto, ma il più probabile, con probabilità arbitraria. vero è che secondo l'algoritmo di Simon, più è alto il pool di variabili, esponenzialmente si riduce il numero di computazioni necessarie per ottenere il valore desiderato

Tommy81
14-08-2009, 14:11
ma la precisione assegnabile è virtualmente limitata solo dal numero di iterazioni.


Entanglement questo passo non l'ho capito :confused:

thewebsurfer
14-08-2009, 14:27
Entanglement questo passo non l'ho capito :confused:

parla di algoritmi iterativi, ad esempio jacobi o SOR, dove maggiori sono le iterazioni, minore è la differenza tra il risultato reale e quello ottenuto

entanglement
14-08-2009, 18:00
Entanglement questo passo non l'ho capito :confused:

tu ottieni una distribuzione "quasi gaussiana" di soluzioni per il tuo problema: decidi di scartare le "ali" della gaussiana simmetricamente rispetto al centro ed ottieni il baricentro di questa curva, che assumi come il risultato più probabile. ma chiaramente, se reiteri la computazione un numero infinito di volte otterrai una gaussiana tanto più "acuminata" intorno ad un risultato, quello più probabile, che assumi arbitrariamente come quello buono.

è ovviamente arbitrario quante iterazioni fare, ma per una probabilità intorno al 99% hai un numero "bruto" di calcoli esponenzialmente inferiore ad un algoritmo classico.

poi ripeto: sulla MQ applicata all'informatica io ne so fino ad un certo punto

Tommy81
15-08-2009, 19:29
parla di algoritmi iterativi, ad esempio jacobi o SOR, dove maggiori sono le iterazioni, minore è la differenza tra il risultato reale e quello ottenuto

tu ottieni una distribuzione "quasi gaussiana" di soluzioni per il tuo problema: decidi di scartare le "ali" della gaussiana simmetricamente rispetto al centro ed ottieni il baricentro di questa curva, che assumi come il risultato più probabile. ma chiaramente, se reiteri la computazione un numero infinito di volte otterrai una gaussiana tanto più "acuminata" intorno ad un risultato, quello più probabile, che assumi arbitrariamente come quello buono.

è ovviamente arbitrario quante iterazioni fare, ma per una probabilità intorno al 99% hai un numero "bruto" di calcoli esponenzialmente inferiore ad un algoritmo classico.

poi ripeto: sulla MQ applicata all'informatica io ne so fino ad un certo punto

ok grazie ragazzi, ora ho capito :)

:.Blizzard.:
16-08-2009, 12:18
Molto interessante ragazzi. Mi domando se esista qualche libro che tratti questo argomento magari partendo dal principio (anche se qualche nozione di meccanica quantistica ce l'ho).

M4rk191
16-08-2009, 17:13
a me spaventa l'idea che un giorno esisteranno computer quantistici, l'informatica che conosciamo oggi servira a ben poco, e avremo perso tempo inutilmente studiando algoritmi che saranno poi rimpiazzati da altri migliori

entanglement
16-08-2009, 17:24
a me spaventa l'idea che un giorno esisteranno computer quantistici, l'informatica che conosciamo oggi servira a ben poco, e avremo perso tempo inutilmente studiando algoritmi che saranno poi rimpiazzati da altri migliori

bè più o meno come passare da cobol a basic, a pascal a c a java ...

in effetti passare ad una programmazione con macchine quantistiche richiederebbe un notevole ripensamento, in primis del codice a basso livello come l'HAL.

hibone
16-08-2009, 18:20
a me spaventa l'idea che un giorno esisteranno computer quantistici, l'informatica che conosciamo oggi servira a ben poco, e avremo perso tempo inutilmente studiando algoritmi che saranno poi rimpiazzati da altri migliori

a me spaventa l'idea di un computer che ti da una risposta che probabilmente è corretta... :asd:

lowenz
16-08-2009, 18:23
probabilmente
Quello capita anche oggi, pensa un attimo a come funzionano le flash col buried gate :p

entanglement
16-08-2009, 18:41
a me spaventa l'idea di un computer che ti da una risposta che probabilmente è corretta... :asd:

infatti non penso che la computazione quantistica sostituirà in toto quella old school

pensa una banca che deve muovere che so io, 1 TB di dati al giorno. un qbit su un miliardo è sbagliato ... e tu ti trovi con 1 GB di dati sbagliati !

hibone
16-08-2009, 19:24
Quello capita anche oggi, pensa un attimo a come funzionano le flash col buried gate :p

beh.. oddio... non è che sia proprio la stessa cosa eh...

l'incertezza dovuta alle tolleranze e quella intrinseca nel progetto sono radicalmente diverse. Una cosa è l'incapacità di gestire un processo, una cosa è includere volontariamente nel sistema, e "senza un motivo", un fattore X suscettibile di variare ad cazzum...

Fino a prova contraria si chiama "azzardo" e guarda caso è vietato nella maggior parte dei paesi del mondo... :asd:


Questo almeno finchè tutta la baracca non viene descritta in modo più accurato...

T3d
16-08-2009, 22:17
a me spaventa l'idea di un computer che ti da una risposta che probabilmente è corretta... :asd:

no, non è che ti dà risposte probabilmente corrette, gli operatori logici sono gli stessi dei computer normali. è il trasporto e l'immagazzinamento dell'informazione che cambia radicalmente e l'accuracy è un valore che indica la quantità di informazione incoerente prodotta dal computer quantistico, dovuta alla distruzione degli stati ogni qualvolta li si misuri.

lowenz
17-08-2009, 01:24
no, non è che ti dà risposte probabilmente corrette, gli operatori logici sono gli stessi dei computer normali. è il trasporto e l'immagazzinamento dell'informazione che cambia radicalmente e l'accuracy è un valore che indica la quantità di informazione incoerente prodotta dal computer quantistico, dovuta alla distruzione degli stati ogni qualvolta li si misuri.
Allora era proprio come pensavo io :D

GaussField
19-08-2009, 19:07
Beh, parlavi di copia :D

E c'è elaborazione numerica che non usi registri? :mbe:

Bisogna capire in che punto capita l'errore, dall'articolo non si capisce se la cosa riguardi la consistenza del dato o dell'operazione stessa :fagiano:
per impedire la copia riusciranno a "fuzzare" anche il CRC :asd:

TheBigBos
19-08-2009, 19:40
tu ottieni una distribuzione "quasi gaussiana" di soluzioni per il tuo problema: decidi di scartare le "ali" della gaussiana simmetricamente rispetto al centro ed ottieni il baricentro di questa curva, che assumi come il risultato più probabile. ma chiaramente, se reiteri la computazione un numero infinito di volte otterrai una gaussiana tanto più "acuminata" intorno ad un risultato, quello più probabile, che assumi arbitrariamente come quello buono.

è ovviamente arbitrario quante iterazioni fare, ma per una probabilità intorno al 99% hai un numero "bruto" di calcoli esponenzialmente inferiore ad un algoritmo classico.

poi ripeto: sulla MQ applicata all'informatica io ne so fino ad un certo punto

Una sorta di Intervallo di confidenza ?!

entanglement
19-08-2009, 19:58
Una sorta di Intervallo di confidenza ?!

più o meno

però a differenza di un intervallo di confidenza su dati statistici raccolti in un momento ed analizzati in un secondo momento, tu puoi continuare a reiterare l'algoritmo finchè non ti viene un risultato quanto più plausibile

TheBigBos
19-08-2009, 20:19
Piuttosto io mi chiedo come cambierà la struttura hardware dei calcolatori. Ipotiziamo che computer quantistici diventino presto domestici, allora RAM SCHEDE VIDEO che fine faranno? Verrà tutto integrato nella CPU ?

T3d
19-08-2009, 20:59
Piuttosto io mi chiedo come cambierà la struttura hardware dei calcolatori. Ipotiziamo che computer quantistici diventino presto domestici, allora RAM SCHEDE VIDEO che fine faranno? Verrà tutto integrato nella CPU ?

non scherziamo, per gli ambienti domestici i computer quantistici sono assolutamente inutili ;)

Johnn
19-08-2009, 23:59
non scherziamo, per gli ambienti domestici i computer quantistici sono assolutamente inutili ;)

Detta così mi pare una delle classiche frasi che 30 anni dopo verranno ricordate per l'enorme cantonata presa... :asd:


Perché dici questo? Ammesso che si riuscisse a realizzare un computer quantistico e una volta abbattuto il costo, perché l'utenza domestica non dovrebbe usufruirne?

T3d
20-08-2009, 00:17
Detta così mi pare una delle classiche frasi che 30 anni dopo verranno ricordate per l'enorme cantonata presa... :asd:


Perché dici questo? Ammesso che si riuscisse a realizzare un computer quantistico e una volta abbattuto il costo, perché l'utenza domestica non dovrebbe usufruirne?

quali sono le tue normali attività con il computer di casa?

blamecanada
20-08-2009, 00:54
quali sono le tue normali attività con il computer di casa?
Secondo me è scontato che se la tecnologia scende di prezzo, verrà poi introdotta nei computer casalinghi.
Il fatto che sia inutile conta assai poco, per la maggior parte della gente basterebbe un pentium III 500Mhz e windows 98 per fare tutto quello che fa...

D.O.S.
20-08-2009, 00:58
quali sono le tue normali attività con il computer di casa?

giocare a crysis in very ultra hight con DX10 a 2500x2000 :fagiano:

T3d
20-08-2009, 01:22
Secondo me è scontato che se la tecnologia scende di prezzo, verrà poi introdotta nei computer casalinghi.
Il fatto che sia inutile conta assai poco, per la maggior parte della gente basterebbe un pentium III 500Mhz e windows 98 per fare tutto quello che fa...
il fatto è che un computer quantistico è assolutamente inutile per compiere le normali operazioni di un utente casalingo.

con i computer quantistici si fattorizzano gli interi, si craccano gli attuali algoritmi di crittografia, si simulano processi fisici e chimici... etc etc

ti sembrano utilizzi normali?

Energy++
20-08-2009, 01:28
il fatto è che un computer quantistico è assolutamente inutile per compiere le normali operazioni di un utente casalingo.

con i computer quantistici si fattorizzano gli interi, si craccano gli attuali algoritmi di crittografia, si simulano processi fisici e chimici... etc etc

ti sembrano utilizzi normali?

una volta con i computer si forzavano i codici nemici, si calcolavano traiettorie balistiche ecc...

ti sembrano utilizzi normali?

eppure oggi ognuno di noi ne ha uno

T3d
20-08-2009, 01:35
una volta con i computer si forzavano i codici nemici, si calcolavano traiettorie balistiche ecc...

ti sembrano utilizzi normali?

eppure oggi ognuno di noi ne ha uno

si, ma tu ora scarichi la posta o navighi su internet, comprimi qualche video, utilizzi qualche word processor o photoshop.

questi sono i task giornalieri di un utente normale.

utilizzare un computer quantistico (che comunque attualmente non è concepito come general purpose alla stregua di un pc normale) per compiere queste operazioni è come voler utilizzare uno shuttle per andare da monza a milano.

estremamente costoso, assolutamente inutile e non è detto che arrivi prima. abbiamo già la tecnologia per soddisfare appieno queste esigenze.

diverso invece è l'ambito accademico e militare, lì il loro utilizzo sarebbe l'ideale perchè risolverebbe parecchi problemi su algoritmi matematici complessi (oltreché crearne di altri :Prrr: )

entanglement
20-08-2009, 07:51
Secondo me è scontato che se la tecnologia scende di prezzo, verrà poi introdotta nei computer casalinghi.
Il fatto che sia inutile conta assai poco, per la maggior parte della gente basterebbe un pentium III 500Mhz e windows 98 per fare tutto quello che fa...

e se uno ha crysis ? :asd:

D.O.S.
20-08-2009, 08:37
Secondo me è scontato che se la tecnologia scende di prezzo, verrà poi introdotta nei computer casalinghi.
Il fatto che sia inutile conta assai poco, per la maggior parte della gente basterebbe un pentium III 500Mhz e windows 98 per fare tutto quello che fa...

non puoi installarci firefox 3 o internet explorer con le ultime patch di sicurezza , con il risultato che non lo puoi neppure usare per navigare ma in fin dei conti è un bene perché nessun antivirus supporta più windows 98 ,stesso discorso per OpenOffice 3 , devi usare il 2 quindi scordati di poter aprire formati file recenti ...senza contare che impiega ere geologiche per avviarsi . :fagiano:

lowenz
20-08-2009, 10:37
Ma il pentium III fa girare bene anche XP o Linux :D

gardos
20-08-2009, 11:53
quali sono le tue normali attività con il computer di casa?

“nessuno avrà mai bisogno di più di 640 KB di RAM”

D.O.S.
20-08-2009, 12:55
Ma il pentium III fa girare bene anche XP o Linux :D

ma devi avere pure 256 Mb come minimo per farli girare , e 256 mb nel 2000 erano un lusso che pochi potevano permettersi .

Johnn
20-08-2009, 12:58
quali sono le tue normali attività con il computer di casa?

Il fatto è che ci saranno nuove esigenze, nuovi programmi che faranno cose che oggi non possono essere fatte per limiti di potenza e che ora neanche immaginiamo. Pensate all'intelligenza artificiale o a realtà virtuali "vere" per far girare il crysis ( :asd: ) del futuro. Fotorealismo e implementazioni della fisica sono abbastanza limitati ora.

T3d
20-08-2009, 16:47
Il fatto è che ci saranno nuove esigenze, nuovi programmi che faranno cose che oggi non possono essere fatte per limiti di potenza e che ora neanche immaginiamo. Pensate all'intelligenza artificiale o a realtà virtuali "vere" per far girare il crysis ( :asd: ) del futuro. Fotorealismo e implementazioni della fisica sono abbastanza limitati ora.

ok, allora concordi con me.

prima dovranno cambiare le tue esigenze di normale utente per dichiarare il computer quantistico utile in ambito casalingo.

attualmente è assolutamente inutile, ci vorrebbe una seconda rivoluzione informatica.

GaussField
20-08-2009, 23:15
I quanti sono troppo vulnerabili ai decadimenti radioattivi (imho)
http://it.wikipedia.org/wiki/Fondo_di_radioattivit%C3%A0_naturale
considerando la scala delle dimensioni, dovrebbe essere sogetto a molti piu' errori
rispetto ai comuni processori di silicio a 32nm :fagiano:
In ogni caso se il tasso d'errore e' alto, risulta praticamente impossibile utilizzare algoritmi
di verifica come l'md5, ma anche il CRC darebbe falsi positivi o falsi negativi, con conseguete
scarto di dati esatti, oppure conferma di dati errati. :asd:

lowenz
21-08-2009, 00:25
ma devi avere pure 256 Mb come minimo per farli girare , e 256 mb nel 2000 erano un lusso che pochi potevano permettersi .
128 sono sufficienti per entrambi :O

D.O.S.
21-08-2009, 07:59
128 sono sufficienti per entrambi :O

ho difficoltà a crederti perché i requisiti minimi indicano 256 mb per entrambi , ma dato che non ho mai provato a installarli su una tale configurazione , devo fidarmi (... tu lo hai fatto , giusto ? )

lowenz
21-08-2009, 08:36
ho difficoltà a crederti perché i requisiti minimi indicano 256 mb per entrambi , ma dato che non ho mai provato a installarli su una tale configurazione , devo fidarmi (... tu lo hai fatto , giusto ? )
WinXP Pro si installa su sistemi con ALMENO 64 MB di RAM.....ho provato con 32 ma mi ha dato il suddetto avviso :D
Linux con l'ultimo kernel mi occupa 80 MB in RAM.....

quelarion
21-08-2009, 11:10
É vero che i risultati sarebbero probabilistici, ma é anche vero che la potenza bruta di una macchina di questo tipo dovrebbe essere esponenzialmente piú alta rispetto a un normale computer. Questo significa che iterando gli algoritmi si puó velocemente risalire ai coefficienti dei singoli stati quantistici, cioé alle probabilitá di ogni risultato, prendere quello piú probabile.

Non ci vedo niente di diverso per esempio dal risolvere numericamente equazioni differenziali. Si sa benissimo che l'algoritmo é soggetto a errore, e quindi lo si spinge fino ad un limite ragionevole.

il fatto è che un computer quantistico è assolutamente inutile per compiere le normali operazioni di un utente casalingo.

con i computer quantistici si fattorizzano gli interi, si craccano gli attuali algoritmi di crittografia, si simulano processi fisici e chimici... etc etc

ti sembrano utilizzi normali?

le necessitá degli utenti si evolvono anche in base alla offerta tecnologica.
Non c'é una relazione semplice necessitá -> tecnologia, perché molte volte c'é una retroazione :D É una continua interazione tra le due cose, che porta ad un progresso in una particolare direzione.

I quanti sono troppo vulnerabili ai decadimenti radioattivi (imho)
http://it.wikipedia.org/wiki/Fondo_di_radioattivit%C3%A0_naturale
considerando la scala delle dimensioni, dovrebbe essere sogetto a molti piu' errori
rispetto ai comuni processori di silicio a 32nm :fagiano:
In ogni caso se il tasso d'errore e' alto, risulta praticamente impossibile utilizzare algoritmi
di verifica come l'md5, ma anche il CRC darebbe falsi positivi o falsi negativi, con conseguete
scarto di dati esatti, oppure conferma di dati errati. :asd:

non capisco che intendi... che questi qubit "decadono"? O che c'é un problema di dover schermare una circuiteria quantistica da una radiazione di fondo?

T3d
21-08-2009, 12:16
non capisco che intendi... che questi qubit "decadono"? O che c'é un problema di dover schermare una circuiteria quantistica da una radiazione di fondo?

la decoerenza è dietro l'angolo :eekk:

secondo me il problema ci sarà quando questi prototipi avranno molti più qubit. saranno molto difficili da gestire... e mantenere coerente il sistema.

entanglement
21-08-2009, 12:21
I quanti sono troppo vulnerabili ai decadimenti radioattivi (imho)
http://it.wikipedia.org/wiki/Fondo_di_radioattivit%C3%A0_naturale
considerando la scala delle dimensioni, dovrebbe essere sogetto a molti piu' errori
rispetto ai comuni processori di silicio a 32nm :fagiano:
In ogni caso se il tasso d'errore e' alto, risulta praticamente impossibile utilizzare algoritmi
di verifica come l'md5, ma anche il CRC darebbe falsi positivi o falsi negativi, con conseguete
scarto di dati esatti, oppure conferma di dati errati. :asd:

bè si può fare un minimo di schermatura in piombo

non so la conduttività termica del piombo ...

quelarion
21-08-2009, 13:58
la decoerenza è dietro l'angolo :eekk:

secondo me il problema ci sarà quando questi prototipi avranno molti più qubit. saranno molto difficili da gestire... e mantenere coerente il sistema.

dipende tutto dai tempi necessari ad effettuare le operazioni. Comunque aumentando il numero di qubit le capacitá aumentano in maniera vertiginosa, al punto che inserire controlli dovrebbe essere piuttosto semplice e non stroncare le prestazioni di un computer quantistico.