View Full Version : Legge di Moore? Valida fino al 2014
Redazione di Hardware Upg
17-06-2009, 14:04
Link alla notizia: http://www.hwupgrade.it/news/cpu/legge-di-moore-valida-fino-al-2014_29336.html
La nota legge di Moore potrebbe vedere la fine nel 2014, secondo quanto afferma iSuppli. Alla base di ciò non solo i limiti fisici, ma anche i sempre più elevati costi di produzione
Click sul link per visualizzare la notizia.
I casi sono due, o troveranno un nuovo modo per ridurre il processo produttivo in maniera conveniente a loro, o si svilupperanno per il mercato nuove possibilità che trascendano il silicio (computer quantistici). E naturalmente c'è anche il caso in cui si studino architetture migliori a parità di processo produttivo.
Severnaya
17-06-2009, 14:13
ma pure programmare meglio per sfruttare degnamente ciò che già c'è (in ambito home chiaramente) nn mi farebbe schifo...
xnavigator
17-06-2009, 14:14
cpu 3d? O.O
Ev3r_H4cK_M4rC0
17-06-2009, 14:21
cpu 3d? O.O
in che senso 3d 3 dimensioni?
per me dovrebbero sviluppare nuove tecnologie senza il silicio,ma altri metalli.
tanto è come la macchina elettrica o ad idrogeno che si svilupperanno veramente e seriamente solo dopo la fine fisica del petrolio così come nuove tecnologie per i processori finchè sbatteremo sul muro dei 18nm non si ricercherà nulla di nuovo...
un'altra cosa potrebbbe essere creare processori con più die all'interno (12-24-48 :) )
con architetture nuove e magari a 128 bit XD
Secondo me la maggior parte dei processori esistenti è già fin troppo potente per le esigenze di un consumatore tipico, home entertainment etc...
A mio avviso avrebbero già dovuto smettere da un pezzo di cercare la maggior potenza e concentrarsi su altri fronti come il basso consumo e l'utilizzo di più processori poco potenti in parallelo, che si attivino ad esempio in base alla necessità di prestazioni del sistema, etc...
Per fortuna pare che questo fronte si sia attivato con l'avvento dei mini-pc e dei nuovi processori a basso consumo (e basso calore + lunga autonomia batterie), ma avrei preferito che fossero partiti su tale indirizzo almeno due o tre anni prima, se non di più.
travel34
17-06-2009, 14:24
ma sarebbe questa una cpu 3D?
http://www.pctunerup.com/up//results/_200906/20090617152409_Immagine.PNG
Una sopra l'altra :confused:
ma sarebbe questa una cpu 3D?
http://www.pctunerup.com/up//results/_200906/20090617152409_Immagine.PNG
Una sopra l'altra :confused:
Quelle sono 3 cpu "2D" impilate
Una cpu "3D" è progettata e concepita per svilupparsi in 3 dimensioni piuttosto che su un piano.
ciao! :)
imperatore_bismark
17-06-2009, 14:31
..beh, io ci scommetto ke nn si fermeranno...! ad oggi dicono così, am tra 5 anni chi lo sa ke tecnologia salterà furoi! ora possono solo pensare... ma nn è mica detto ke sia vero! e in fine, mica è detto ke debba per forza essere una cosa negativa... almeno si focalizzano su una data architettura e la migliorano sempre di più..ottimizzandola!
Ora mi chiedo... nel 2014 ci venderanno un 32core come base, se nn di +, ma per fare cosa??
Ora cm ora un Dual Core basta e avanza... al max 4 Core. Anche per i videogiocatori + esigenti un 8 Core tra qlk hanno nn sapranno che farsene, se nn arricchire l'Enel...
e' tutta potenza inutilizzata...
krissparker
17-06-2009, 14:50
Ora mi chiedo... nel 2014 ci venderanno un 32core come base, se nn di +, ma per fare cosa??
Ora cm ora un Dual Core basta e avanza... al max 4 Core. Anche per i videogiocatori + esigenti un 8 Core tra qlk hanno nn sapranno che farsene, se nn arricchire l'Enel...
e' tutta potenza inutilizzata...
nel 94 anche io ero convinto che i 16 mega di ram del mio quadra 900 fossero più che sufficenti.....:rolleyes: :rolleyes: :rolleyes:
travel34
17-06-2009, 14:57
Quelle sono 3 cpu "2D" impilate
Una cpu "3D" è progettata e concepita per svilupparsi in 3 dimensioni piuttosto che su un piano.
ciao! :)
Sai se c'è qualche documento o articolo dove ne parlano in modo semplice? :)
Severnaya
17-06-2009, 14:57
ma il quantitativo di ram è una coosa
avere cpu con core inutilizzati è un'altra
anch'io quando vidi doom 2 (quello a dischetti eh :D) per la prima volta dissi "aaaaah meglio di così nn riusciranno a fare!!! :asd:
Mantis-89
17-06-2009, 14:59
"Penso che nel mondo ci sia mercato forse per quattro o cinque computer." Thomas Watson, presidente della Ibm, 1943
Mantis-89
17-06-2009, 15:04
Sai se c'è qualche documento o articolo dove ne parlano in modo semplice? :)
Da quello che ho capito le cpu di oggi non sono altro che un foglio di silico con "stampato" il circuito, mentre le cpu 3d non dovrebbero essere più un foglio ma dovrebbero svilupparsi su più piani (un pò come nell'immagine che è stata postata solo che non sono fogli sovrapposti ma nascono già così).
E' come se da case o villette di 1 piano si passasse a condomini e palazzi.
PS: non lapidatemi se sbaglio ^_^
que va je faire
17-06-2009, 15:10
fortuna che oggi stesso è uscita la news di toshiba che lavora sui 16 nm
Mantis-89
17-06-2009, 15:13
Hai ragione l'avevo già dimenticato :asd:
il 2009 sarà ricordato come l'anno in cui moore si rigirò nella tomba :D
http://www.google.it/search?q=processori+ibm+3d&btnG=Cerca&hl=it&sa=2
nel primo risultato è spiegato cosa sono le cpu 3d; a quanto pare un prototipo è stato costruito dai laboratori di Zurigo di IBM, ma scaldano ancora troppo rispetto alle tradizionali CPU, talmente tanto da necessitare di un sistema di raffreddamento a liquido integrato
..comunque che Moore sia ancora in vita...
In realtà un moderno processore (già da tempo) è costituito da un die di silicio con vari livelli di metallizzazione che interconnettono più "layers" contenenti componenti circuitali.
Il silicio poi non è classificabile come "metallo" ma come metalloide tetravalente.
Grazie.
Marco71.
Secondo me la maggior parte dei processori esistenti è già fin troppo potente per le esigenze di un consumatore tipico, home entertainment etc...
Come non quotarti... giusto un empio per capire l'ordine di grandezza delle potenze di calcolo, in un qualsiasi Airbus l'intero sistema avionico fly-by-wire, compreso autopilota e tutto il resto è gestito, addirittura in maniera ridondante e virtualizzata, da una manciata di CPU 386!!!!
goldorak
17-06-2009, 16:13
Come non quotarti... giusto un empio per capire l'ordine di grandezza delle potenze di calcolo, in un qualsiasi Airbus l'intero sistema avionico fly-by-wire, compreso autopilota e tutto il resto è gestito, addirittura in maniera ridondante e virtualizzata, da una manciata di CPU 386!!!!
Scusa se lo dico ma che paragone del cavolo.
Vogliamo confrontare cose confrontabili ?
soprattutto vallo a fare un attacco bruteforce con un 386
Micene.1
17-06-2009, 16:23
20-18 nm...ma praticamente è il prox processo produttivo per cpu (considernado quello 32nm gia sviluppato da intel con successo)...se fosse vero siamo molto vicini ad una rivoluzione nel comparto semiconduttori per cpu...visto i tempi dovrebbero attivarsi gai adesso con qualche nuova idea
Come non quotarti... giusto un empio per capire l'ordine di grandezza delle potenze di calcolo, in un qualsiasi Airbus l'intero sistema avionico fly-by-wire, compreso autopilota e tutto il resto è gestito, addirittura in maniera ridondante e virtualizzata, da una manciata di CPU 386!!!!
beato te che ci fai un montaggio video con un 386!
Per tutte le persone che, stupidamente, dicono che è inutile crescere in potenza faccio dei piccoli esempi
- si aumenta la velocità di calcolo, utile in moltissimi ambiti aziendali
- i videogiochi? maggiore AI, maggiore coinvolgimento etc...
- chi vuole un sys che consumi poco ha l'Atom&CO, che problema c'è se nascono sys potenti? è ovvio che si debba crescere...
- montaggio video? con l'avvendo dell'HD e del 3D bisogna sviluppare in multicamera, e non è solo gioco di scheda video ;)... non contando tutto il settore photo-video, erroneamente si pensa che faccia tutto la sk video ;)
continuo?
i processori ottici sono alle porte, in cui al posto della migrazione degli elettroni ci saranno fotoni.
non saranno multicore e saranno molto piu' semplici rispetto alle architetture attuali diciamo circa come i RISC di qualche anno fa, ma avranno una cache da 128mb circa e una velocità di esecuzione di circa 120GHZ ossia 40 volte quella degli attuali processori.
consumeranno piu' o meno quanto i processori attuali circa 200watt.
Più che un poeta sei un gran Troll! ; )
lo dico con affetto!
SwatMaster
17-06-2009, 16:51
Sperò sarà la buona occasione per fermare lo sviluppo hw ed incrementare quello sw, che ora come ora non riesce minimamente a stargli dietro.
Nel 2013 aumenteranno la dimensione dei wafer, da 300mm a 450mm. L'area di un wafer simile sarebbe il doppio di quello attuale, che significqa un costo di produzione dei die nettamente inferiore. I CMOS dovrebbero durare fino agli 11nm (previsti nel 2018), dopodiche si. passera' a nuove tecnologie (probabilmente germanio/grafite). La legge di Moore potrebbe subire un rallentamento nel prossimo decennio ma nel 2020s ritornera' (chip probabilistici, quantistici,spintronici,fotonici al teraherz lol :D)
Processori ottici alle porte? SI, certo, come no :asd:
Ps: leggo che mi avete ucciso Moore :cry:
:D
g.luca86x
17-06-2009, 17:08
i processori ottici sono alle porte, in cui al posto della migrazione degli elettroni ci saranno fotoni.
non saranno multicore e saranno molto piu' semplici rispetto alle architetture attuali diciamo circa come i RISC di qualche anno fa, ma avranno una cache da 128mb circa e una velocità di esecuzione di circa 120GHZ ossia 40 volte quella degli attuali processori.
consumeranno piu' o meno quanto i processori attuali circa 200watt.
ma nemmeno le peggiori gpu, che di stream processor non ne hanno di certo due o 4 consumano tanto? Fa caldo lì da te?:D
...alle porte non so...casomai all'orizzonte. Ma poi scuzate un attimo, ma i processori attuali consumano 200 watt?...Ma di che proci parlate?...quad core quando sono in full load spero.
ARARARARARARA
17-06-2009, 17:25
anni fa si diceva: è impossibile superare il ghz di frequenza... IMPOSSIBILE è una cosa fisica non si può... già già, poi si era detto: non si possono superare i 5 ghz... impossibile ah noo impossibile perchè gli elttroni bla bla bla in overclook si sono superati gli 8 ghz... umm non si può migliroare ancora... certo, come no.. ma mi fido ciecamente! Si cambieranno materiali probabilmente o inizieranno a mettere 40 core per processore o robe del genere. Ciò che ha veramente rallentato l'evoluzione è il mercato cunsumer da supermercato che immancabilmente rallenta l'evoluzione perchè purtoppo la gente compra schifezze per poco riducendo gli investimenti verso i prodotti migliori spostandoli verso prodotti del cavolo
Robecate
17-06-2009, 17:43
La legge di Moore ha non solo un limite "economico" ma anche un limite fisico insuperabile e indipendente dalla materia con cui sono o saranno fatti i processori: quando la miniaturizzazione porterà il singolo transistor ad avere dimensioni di pochi atomi questo cesserà di funzionare con le leggi della elettrodinamica classica e inizierà ad obbedire alle leggi della meccanica quantistica. A questo punto tutta la architettura dei pc e dei processori dovrà essere cambiata.
Wolfenstein
17-06-2009, 18:38
bisogna far imparare a microsoft a sfruttare bene bene i processori e non a tirare fuori sistemi operativi spazzatura e pesanti come un mattone che non fanno altro che rallentare qualsiasi computer in commercio!!!
Tanto col vista ci hanno sbattuto il muso, vedremo col 7. Mai vista una mole cosi grande di downgrade vista - xp
quando la miniaturizzazione porterà il singolo transistor ad avere dimensioni di pochi atomi questo cesserà di funzionare con le leggi della elettrodinamica classica e inizierà ad obbedire alle leggi della meccanica quantistica.
Credo tu sia indietro di una sessantina d'anni: senza la meccanica quatistica non riusciresti a spiegare nemmeno il primo transistor, quello degli anni '40! Il concetto stesso di semiconduttore non e' spiegabile dalla fisica classica / leggi di Maxwell.
A questo punto tutta la architettura dei pc e dei processori dovrà essere cambiata.
E perche'?
Basta fornire un'interfaccia tecnologica adeguata, e posso costruire un processore anche con un organo a canne (cit).
Se un domani il silicio sparisse e venisse sostituito, che so, da nanotubi di carbonio, questi verrebbero comunque usati per realizzare oggetti equivalenti a interruttori, aggregati per costruire gli stessi oggetti che conosciamo oggi. Avresti comunque una memoria, delle unita' funzionali, eccetera.
Mantis-89
17-06-2009, 18:56
Forse quello che vuole dire è un pò diverso.. Non riesco a spiegarlo nemmeno io, prova a pensarci..
avvelenato
17-06-2009, 18:59
In realtà quello che pochi hanno notato è che i limiti fisici nell'articolo non sono messi in discussione.
La legge di moore è una constatazione empirica enunciata in un contesto tecnologico-storico-economico definito.
Così come finora la potenza dei processori (e ancor più drammaticamente delle gpu, che all'epoca dell' "invenzione" della legge neanche esistevano!) è cresciuta esponenzialmente, l'impatto lato utente invece, si può dire che stia esponenzialmente decrecendo.
Pensateci.
Un tempo fare un upgrade significava valicare una barriera di cose che non si potevano fare e poi sì.
E' da molto oramai che queste barriere sono diventate rare, ed è più una questione di "fare le cose più velocemente" oppure di "ottenere una maggior qualità" (ad esempio con l'antialiasing e simili).
Arriverà a un punto in cui asintoticamente la velocità sarà la massima raggiungibile, la qualità pure, e un upgrade diverrà del tutto inutile.
Di conseguenza nessuno ci spenderà soldi, nessuno investirà nella produzione e le economie di scala cesseranno.
E se nessuno scoprirà altre "barriere" prestazionali il cui superamento possa interessare abbastanza ai consumer, la legge di moore è destinata a morire.
Per adesso comunque ancora è presto, imho, probabilmente assisteremo soltanto ad un'allentamento dei tempi di sviluppo.
Pier2204
17-06-2009, 19:00
La legge di Moore ha non solo un limite "economico" ma anche un limite fisico insuperabile e indipendente dalla materia con cui sono o saranno fatti i processori: quando la miniaturizzazione porterà il singolo transistor ad avere dimensioni di pochi atomi questo cesserà di funzionare con le leggi della elettrodinamica classica e inizierà ad obbedire alle leggi della meccanica quantistica. A questo punto tutta la architettura dei pc e dei processori dovrà essere cambiata.
Infatti nell'articolo si pone il problema economico. Attualmente per produrre chip sotto i 18 nm il costo dei macchinari è talmente esagerato da non riuscire ad ammortizzarli neppure su produzioni in larga scala. Quindi, prima di un problema fisico (certamente non è possibile scendere sotto la dimensione di un atomo), anche ipotizzando macchinari economici il limite è vicino.
Chissà cosa dice Moore???? penso che una domanda la si possa fare :D
Stefano Villa
17-06-2009, 19:04
La verità è che ad oggi non possiamo sapere cosa succederà tra 5 anni, al massimo lo possiamo immaginare.
Se davverò si arriverà al punto che non sarà più possibile miniaturizzare e non ci saranno altre tecnologie la via da prendere sarà quella dell'ottimizazione del software e soprattutto la ricerca di architetture hardware più efficienti... Penso sia inevitabile
Facendo finta che una data dopo il 2012 significhi qualcosa (e NON significa nulla il 21/12/2012 finisce il mondo!)...
Prima di passare a processori quantici o fotonici... provare a passare a un architettura più moderna?
In fondo - esagerando - un I7 e un Phenom II son dei 486 overclocckati... roba di 20 anni fa!!!
Per esempio passare veramente e totalmente a 64 BIT, fare sistemi operativi multithread e multiprocessing fin dall'inizio (non come ora che il mio dual core ha un core sempre spento... un otta-core avrà 7 core spenti :mbe:)... e poi se i processori smettessero di manipolare i dati in binario?
La scelta del sistema binario fu fatta perchè all'epoca era difficile fare una differenza tra le varie tensioni e quindi si fece prima a dire che 0 era assenza di corrente e 1 presenza... oggi penso dovremmo avere la tecnologia per passare al sistema decimale o magari pure esadecimale :sofico:
Insomma potrebbe essere una buona occasione per pensare qualcosa di nuovo... e migliore... peccato che il 2014 non esisterà :Prrr:
Megakirops
17-06-2009, 19:27
in che senso 3d 3 dimensioni?
per me dovrebbero sviluppare nuove tecnologie senza il silicio,ma altri metalli.
tanto è come la macchina elettrica o ad idrogeno che si svilupperanno veramente e seriamente solo dopo la fine fisica del petrolio così come nuove tecnologie per i processori finchè sbatteremo sul muro dei 18nm non si ricercherà nulla di nuovo...
un'altra cosa potrebbbe essere creare processori con più die all'interno (12-24-48 :) )
con architetture nuove e magari a 128 bit XD
il silicio non è certamente un metallo...è più simile al carbonio. Anche quella di metalloide è una definizione imprecisa. Abbandonare il Si come semiconduttore è alquanto complesso. In alternativa si potrebbero usare ossidi di elementi dello stesso gruppo come il Ge o semiconduttori compositi come l'arseniuro di gallio. Il problema principale, secondo me, è che elementi come germanio e gallio hanno un'abbondanza relativa sulla crosta terrestre molto molto bassa, al contrario del silicio, inoltre la tecnologia basata sul silicio è ben collaudata.
PS le ''macchine ad idrogeno'' non potranno essere sviluppate dopo la fine fisica del petrolio perchè tutto funziona grazie al petrolio...anche la ricerca ;)
...è classificato come semimetallo (o metalloide come prima della definizione I.U.P.A.C si definiva) in base alla posizione come elemento chimico sulla tavola periodica.
Grazie.
Marco71.
provare a passare a un architettura più moderna?
In fondo - esagerando - un I7 e un Phenom II son dei 486 overclocckati... roba di 20 anni fa!!!
Per esempio passare veramente e totalmente a 64 BIT, fare sistemi operativi multithread e multiprocessing fin dall'inizio (non come ora che il mio dual core ha un core sempre spento... un otta-core avrà 7 core spenti :mbe:)... e poi se i processori smettessero di manipolare i dati in binario?
La scelta del sistema binario fu fatta perchè all'epoca era difficile fare una differenza tra le varie tensioni e quindi si fece prima a dire che 0 era assenza di corrente e 1 presenza... oggi penso dovremmo avere la tecnologia per passare al sistema decimale o magari pure esadecimale :sofico:
Se vai alla Intel a spiegare come fare quello che dici, qualche milioni di dollari te lo danno (oppure metti su la tua azienda, rivoluzioni il mondo, e qualche miliardo di dollari lo tiri su).
Sorry, ma quello che hai detto sono un sacco di chiacchiere senza significato :)
Cosa significa "architettura piu' moderna"? BTW, dire che un i7 e' un 486 overcloccato e' come dire che una Ferrari e' un modello T piu' aerodinamico... fai tu :)
Le innovazioni microarchitetturali dagli anni '80 ad oggi sono state tante... e i sistemi operativi gestiscono piu' processi da... beh, da un bel po' :)
Per la rappresentazione binaria, di nuovo, non ha senso. Gia' costruire circuiti colla tecnologia attuale che lavorino su due livelli e' difficile; costruire elementi stabili su piu' livelli e' impossibile.
E se anche avessimo una nuova tecnologia che ci permetta di costruire logica esadecimale, che vantaggi avresti? Piu' compattezza di spazio, piu' banda in trasmissione... forse piu' prestazioni nei calcoli (a patto che tutte le altre caratteristiche della tecnologia restino le stesse...)... sarebbe davvero uan "rivoluzione architetturale"? Direi di no.
Stefano Villa
17-06-2009, 20:09
Il binario è perfetto di sua natura e mi sa che ce lo terremo in eterno.... Non è quello il problema, a mio modo di vedere il vero problema oltra a software,che su non stiamo a raccontarci cazzate, è scritto con i piedi nella maggior parte dei casi, è l'architettura di base.... l'x86 è vecchia, sarebbe il caso di muoversi verso una architettura più efficente e radicalmente differente..ovvio non so quale, non sono un ingeniere, però penso si la scelta più giusta da fare
LUKE88123
17-06-2009, 20:13
se cercae un articolo che spieghi le cpu 3d, ricordo che ne era uscito uno interessante, anche se molto semplicistico, qui su HW upgrade..
November
17-06-2009, 20:25
Come non quotarti... giusto un empio per capire l'ordine di grandezza delle potenze di calcolo, in un qualsiasi Airbus l'intero sistema avionico fly-by-wire, compreso autopilota e tutto il resto è gestito, addirittura in maniera ridondante e virtualizzata, da una manciata di CPU 386!!!!
Per un motivo diverso e molto più importante: affidabilità.
MeomATRIX
17-06-2009, 20:29
Facendo finta che una data dopo il 2012 significhi qualcosa (e NON significa nulla il 21/12/2012 finisce il mondo!)...
Prima di passare a processori quantici o fotonici... provare a passare a un architettura più moderna?
In fondo - esagerando - un I7 e un Phenom II son dei 486 overclocckati... roba di 20 anni fa!!!
Per esempio passare veramente e totalmente a 64 BIT, fare sistemi operativi multithread e multiprocessing fin dall'inizio (non come ora che il mio dual core ha un core sempre spento... un otta-core avrà 7 core spenti :mbe:)... e poi se i processori smettessero di manipolare i dati in binario?
La scelta del sistema binario fu fatta perchè all'epoca era difficile fare una differenza tra le varie tensioni e quindi si fece prima a dire che 0 era assenza di corrente e 1 presenza... oggi penso dovremmo avere la tecnologia per passare al sistema decimale o magari pure esadecimale :sofico:
Insomma potrebbe essere una buona occasione per pensare qualcosa di nuovo... e migliore... peccato che il 2014 non esisterà :Prrr:
Facciamoci un grattata...scusate la finezza:ciapet:
Cmq personalmente credo che un ottimizzazione del software sia un'ottima cosa..quando ci saranno limiti hardware dovranno migliorare il software..spero-
l'x86 è vecchia, sarebbe il caso di muoversi verso una architettura più efficente e radicalmente differente..ovvio non so quale, non sono un ingeniere, però penso si la scelta più giusta da fare
Scusa, ma se non sai niente di architetture, perche' dovrebbe essere la "scleta giusta da fare"?
Mettiti il cuore in pace, x86 stara' in giro ancora per mooolto tempo :)
Cambiarla e' assolutamente impensabile (dovresti cambiare tutto l'hardware E il software scritto finora... chi lo fa? Nessuno :)
E cmq non e' che si possano ottenere tutti 'sti vantaggi: pensa ad architetture piu' recenti, come Itanium, core ecc. I vantaggi che offrono rispetto a x86 non sono stratosferici... andassero 10 volte piu' veloci consumando 10 volte meno energia ci si potrebbe pensare, ma non e' cosi', e nessuna architettura che si conosca puo' fare una cosa del genere.
Semplicemente, pian piano continueremo con la solita strada, aggiungendo un po' di istruzioni, creando (co)processori ad hoc, limando i consumi, eccetera.
Robecate
17-06-2009, 20:50
Credo tu sia indietro di una sessantina d'anni: senza la meccanica quatistica non riusciresti a spiegare nemmeno il primo transistor, quello degli anni '40! Il concetto stesso di semiconduttore non e' spiegabile dalla fisica classica / leggi di Maxwell.
E perche'?
Basta fornire un'interfaccia tecnologica adeguata, e posso costruire un processore anche con un organo a canne (cit).
Se un domani il silicio sparisse e venisse sostituito, che so, da nanotubi di carbonio, questi verrebbero comunque usati per realizzare oggetti equivalenti a interruttori, aggregati per costruire gli stessi oggetti che conosciamo oggi. Avresti comunque una memoria, delle unita' funzionali, eccetera.
Mi scuso per non essermi spiegato bene: e' noto a quasi tutti che i transistor funzionano con la meccanica quantistica!
Il problema a cui facevo riferimento io è un altro; i computer di oggi (processori, bus, memorie ecc.) funzionano con un metodo essenzialmente deterministico, on-off, 0-1 e i due stati (a meno di errori casuali) hanno probabilità 0 oppure 1. Il transistor è un oggetto intrinsecamente quantistico che funziona però ancora come un oggetto classico (acceso o spento). Quando però le sue dimensioni sono "troppo piccole" il suo comportamento diventa quantistico (gli stati acceso o spento perdono di significato e il sistema è descrivibile solo come una sovrapposizione di ambedue). A questo punto la logica di funzionamento è completamente diversa. Tutta l'architettura del computer dovrà cambiare (non ci sono nanotubi che tengano :D).
Ultima nota: non sono "indietro di 60 anni" sono semplicemente un professore di fisica teorica di 50 anni...;)
Mi scuso per non essermi spiegato bene: e' noto a quasi tutti che i transistor funzionano con la meccanica quantistica!
Il problema a cui facevo riferimento io è un altro; i computer di oggi (processori, bus, memorie ecc.) funzionano con un metodo essenzialmente deterministico, on-off, 0-1 e i due stati (a meno di errori casuali) hanno probabilità 0 oppure 1. Il transistor è un oggetto intrinsecamente quantistico che funziona però ancora come un oggetto classico (acceso o spento). Quando però le sue dimensioni sono "troppo piccole" il suo comportamento diventa quantistico (gli stati acceso o spento perdono di significato e il sistema è descrivibile solo come una sovrapposizione di ambedue). A questo punto la logica di funzionamento è completamente diversa. Tutta l'architettura del computer dovrà cambiare (non ci sono nanotubi che tengano :D)
Ok avevo frainteso :)
E' vero ancora oggi riusciamo a "costruire" l'illusione che il transistor sia "acceso/spento", e sara' cosi' per tutti i nodi tecnologici di cui si parla nelle news (22nm, 16nm...).
Poi... boh :) li' si' si potrebbe dover cambiare proprio il modo di pensare (spero solo succeda tra un bel po', se no sono bruciato in partenza :)
ARARARARARARA
17-06-2009, 21:10
PS le ''macchine ad idrogeno'' non potranno essere sviluppate dopo la fine fisica del petrolio perchè tutto funziona grazie al petrolio...anche la ricerca ;)
La maggior parte dell'energia è sotto forma di calore, il calore è ovunque (lo zero assoluto non è raggiungibile quindi c'è sempre calore) il giorno che realizzerò la mia idea non avremo più bisogno del petrolio... o meglio non per ricavarne energia...
purtroppo per il mondo certe parti della mia idea non le sò dimensionare, ma imparerò...
Robecate
17-06-2009, 21:11
Ok avevo frainteso :)
E' vero ancora oggi riusciamo a "costruire" l'illusione che il transistor sia "acceso/spento", e sara' cosi' per tutti i nodi tecnologici di cui si parla nelle news (22nm, 16nm...).
Esattissimo!!! condivido pienamente la frase "costruire l'illusione" :D
I futuribili "computer quantistici" non saranno assolutamente computer come li immaginiamo adesso, non staranno sul nostro tavolo, ognuno farà benissimo solo poche cose perchè dovrà essere costruito ad hoc per farle.
Per i computer tuttofare e personali come quelli di oggi, raggiunto il limite della legge di Moore (che si riferisce solo ai transistor come li sappiamo fare oggi, attenzione!) semplicemente nel 2014 ci si fermerà con la miniaturizzazione oppure la scienza dei materiali o addirittura la biologia ci avranno già regalato qualcosa di notevole per progredire.
a quanto ne so non si fanno chip 3d solo perché è impossibile garantire lo smaltimento del calore che i chip riescono a produrre.
10W a 1.2V sono circa 10A..... veramente troppo
November
17-06-2009, 22:03
Si ma attenzione, ottimizzazione software non vuol dire granché, anzi.
Se si parla di ottimizzazione a livello di compilazione e/o di macchina virtuale è un conto, se si parla di scrivere bene del codice è un altro. In ogni caso bisogna sempre scendere a compromessi, per esempio un linguaggio come il C normalmente fornisce prestazioni superiori a Java, il quale però fornisce una produttività superiore. Se è vero che il software non ha gli stessi ritmi dell'hardware è anche vero che i tempi e i costi per la scrittura di ottimo codice sono alti.
Se vai alla Intel a spiegare come fare quello che dici, qualche milioni di dollari te lo danno (oppure metti su la tua azienda, rivoluzioni il mondo, e qualche miliardo di dollari lo tiri su).
Magari :D
Cosa significa "architettura piu' moderna"? BTW, dire che un i7 e' un 486 overcloccato e' come dire che una Ferrari e' un modello T piu' aerodinamico... fai tu :)
Le innovazioni microarchitetturali dagli anni '80 ad oggi sono state tante... e i sistemi operativi gestiscono piu' processi da... beh, da un bel po' :)
Dai ho messo apposta quell'esagerando... comunque il set di istruzioni è sempre lo stesso del 486... hanno aggiunto SSE, 3Dnow, X64 e sarcazzate varie... ma alla fine sempre la stessa roba è!
Intendo è un accrocchio (e lo so che internamente sono dei RISC con un decoder CISC che li fa sembrare degli x86 NON son davvero 486 a 2 Ghz)...
Alla fine resosi conto che più di tanto non potevano salire di clock hanno iniziato ad aumentare i processori... nel 2014 avremo CPU con 16 processori...
e Windows 9 che ne sfrutterà sempre e solo 1... a 32 bit :cry:
Per la rappresentazione binaria, di nuovo, non ha senso. Gia' costruire circuiti colla tecnologia attuale che lavorino su due livelli e' difficile; costruire elementi stabili su piu' livelli e' impossibile.
E se anche avessimo una nuova tecnologia che ci permetta di costruire logica esadecimale, che vantaggi avresti? Piu' compattezza di spazio, piu' banda in trasmissione... forse piu' prestazioni nei calcoli (a patto che tutte le altre caratteristiche della tecnologia restino le stesse...)... sarebbe davvero uan "rivoluzione architetturale"? Direi di no.
Beh se non riusciamo più a scendere di dimensioni: "Piu' compattezza di spazio, piu' banda in trasmissione... forse piu' prestazioni nei calcoli" non è questo lo scopo per avere nuovi processori?
A me pare di sì... poi si fa per parlare 2014 non è una data :Prrr:
Quindi sì ci terremo i "486" ancora... per 5 anni :muro:
xketto85x
17-06-2009, 23:28
ma quante pippe mentali che vi fate.... 2014...2018...2020... 15nm, 6nm...:blah: ma non avete altro da fare che pensare a quanti nanometri sarà il vostro processore che comprerete nel 2014? :lamer:
sempre se ci arrivate! :asd:
Dragon 36
18-06-2009, 02:15
ecco il link della notizia di H.U. uscita qualche tempo fa:
http://www.hwupgrade.it/news/cpu/ibm-studia-nuove-cpu-3d-raffreddate-ad-acqua_25561.html
OEidolon
18-06-2009, 08:36
a quanto ne so non si fanno chip 3d solo perché è impossibile garantire lo smaltimento del calore che i chip riescono a produrre.
10W a 1.2V sono circa 10A..... veramente troppo
mmm...allora che ne dici degli attuali da 125w e 1.3 di vcore?!
Sajiuuk Kaar
18-06-2009, 08:53
Secondo me la maggior parte dei processori esistenti è già fin troppo potente per le esigenze di un consumatore tipico, home entertainment etc...
Ma anche no ^^
Se per consumatore tipico intendi quello ceh va nelle chat e su facebook allora è un conto. Se per consumatore tipico intendi il videogamer invece pezzi di brutto. Se invece intendi il tizio che lavora con pc ed ha ancora un pentium 2 perchè non vedono un pc nuovo in quella ditta dal 30215 a.c. allora è un altro paio di maniche e posso pure crederci.
OEidolon
18-06-2009, 09:20
Ma anche no ^^
Se per consumatore tipico intendi quello ceh va nelle chat e su facebook allora è un conto. Se per consumatore tipico intendi il videogamer invece pezzi di brutto. Se invece intendi il tizio che lavora con pc ed ha ancora un pentium 2 perchè non vedono un pc nuovo in quella ditta dal 30215 a.c. allora è un altro paio di maniche e posso pure crederci.
il videogamer si chiama videogamer perchè non è il consumatore tipico.
il consumatore tipico ultimamente è un po' cambiato, in quanto non disdegna il gioco ma tende al casualgamer, quindi con un pc di fascia media se ne sta a posto per anni finchè una sovratensione non gli fonde alimentatore e mobo.
Se invece intendi il tizio che lavora con pc ed ha ancora un pentium 2 perchè non vedono un pc nuovo in quella ditta dal 30215 a.c. allora è un altro paio di maniche e posso pure crederci.
presente!
p3 667Mhz, lo terro' fino alla morte (sua o mia)
Il 99% della gente ha un pc sfruttato al 20%
Coyote74
18-06-2009, 09:40
Bah, ricordo ancora a chiare lettere quando nel lontano 1995 il mio docente di Informatica al politecnico sostenne che il limite ultimo per la frequenza dei processori era 100Mhz, e oltre non si sarebbe potuti andare... già, già... una previsione veramente lungimirante:D
A mio avviso queste affermazioni sono tutte campate per aria, non dico senza fondamento, ma decisamente azzardate.
Principe999
18-06-2009, 09:57
Prendete in considerazione lo scoppio di una terza guerra mondiale che coinvolga tutti gli stati moderni (adesso non discutiamo sulla possibilità o impossibilità che ciò si verifichi): provate a pensare alle innovazioni tecnologiche sviluppate durante i conflitti e poi rese parzialmente pubbliche e fruibili da tutti.
Al livello militare avranno sicuramente tecnologie prototipo avanti (nel senso che noi semplici cittadini potremo usufruire) almeno 10-15 anni.
E' propio durante le guerre che vengono spese piu risorse nel campo della ricerca e degli armamenti.
Se cio si verificasse (lo scoppio della WW3) dal punto di vista strettamente tecnologico (tralasciamo le vite umane....)ci sarebbe un balzo in avanti non indifferente rispetto alle "velocità" attuali di progresso.
Tutto questo per dire che non serve aspettare il 2030 per avere tecnologie rivoluzionarie.
squalomik
18-06-2009, 10:16
Non era nel 2012 che doveva accadere di tutto tra cui gli alieni che ci trucidavano tutti? ... mi chedo ancora perchè sto studiando ingegneria elettronica xD
Non era nel 2012 che doveva accadere di tutto tra cui gli alieni che ci trucidavano tutti? ... mi chedo ancora perchè sto studiando ingegneria elettronica xD
per progettare i phaser orbitali destinati a proteggere l'umanità:D :D
Facendo finta che una data dopo il 2012 significhi qualcosa (e NON significa nulla il 21/12/2012 finisce il mondo!)...
Prima di passare a processori quantici o fotonici... provare a passare a un architettura più moderna?
In fondo - esagerando - un I7 e un Phenom II son dei 486 overclocckati... roba di 20 anni fa!!!
Per esempio passare veramente e totalmente a 64 BIT, fare sistemi operativi multithread e multiprocessing fin dall'inizio (non come ora che il mio dual core ha un core sempre spento... un otta-core avrà 7 core spenti :mbe:)... e poi se i processori smettessero di manipolare i dati in binario?
La scelta del sistema binario fu fatta perchè all'epoca era difficile fare una differenza tra le varie tensioni e quindi si fece prima a dire che 0 era assenza di corrente e 1 presenza... oggi penso dovremmo avere la tecnologia per passare al sistema decimale o magari pure esadecimale :sofico:
Insomma potrebbe essere una buona occasione per pensare qualcosa di nuovo... e migliore... peccato che il 2014 non esisterà :Prrr:
molteplici stati=computer quantistici
ci stanno già lavorando e quando saranno pronti gli algoritmi di protezione più diffusi saranno "sfondati" senza problemi, però si potrà ricorrere alla distribuzione quantistica delle chiavi che garantirà sicurezza assoluta, sembra impossibile ma è così.
Se metti insieme la gente che usa un pc per gioco-montaggio video e grafica non superi nemmeno il 5% dei possessori. Quanti dei restanti 95% sfrutta la potenza di tutto il pc per un lungo periodo?
Semplicemente nessuno......l'hardware si vende solo perchè esiste il software che necessità di una determinata potenza. Tolto di mezzo vista e xp il mercato dei pc sarebbe crollato del tutto. Per non parlare delle minchiate Adobe, dove ad ogni release nuova serve un pc 3 volte più potente per fare sempre le stesse cose.
questo più che altro dipende da una convienienza economica delle software house, che invece di risparmiare righe di codice per ottimizzare le prestazioni, colmano il vuoto sfruttando la potenza hardware, che da una parte è buona per alcune cose, dall'altra ti costringe a comprare sempre nuovi processori, RAM, etc. mentre quasi tutte le applicazioni potrebbero essere eseguite con meno risorse di quante ne richiedono senza ottimizzazione.
Mantis-89
18-06-2009, 12:51
questo più che altro dipende da una convienienza economica delle software house, che invece di risparmiare righe di codice per ottimizzare le prestazioni, colmano il vuoto sfruttando la potenza hardware, che da una parte è buona per alcune cose, dall'altra ti costringe a comprare sempre nuovi processori, RAM, etc. mentre quasi tutte le applicazioni potrebbero essere eseguite con meno risorse di quante ne richiedono senza ottimizzazione.
Ho notato pure io che certi programmi noti stanno diventando dei veri mattoni per fare poco più di quello che facevano un tempo ( ad es. un noto programma di masterizzazione che solo per avviarsi ci mette una vita) ma l'ottimizzazione del codice non è una manna dal celo.
Diventa complicato leggere e capire il codice, capire quello che fa e perchè, (quanto non si commenta bene) diventa complicato aggiungere nuove parti e i bug risultano più nascosti. Per questo risulta meglio fare una cosa in più passaggi semplici e chiari che non in pochi e intricati, utilizzare certi tipi di controlli che altri (in vista di future espansioni), ecc..
Questo va a scapito delle prestazioni è vero(anche se non molto alla fine, ottimizzare è diverso da saper programmare bene), però preferiresti un programma veloce(e basta) o uno (quasi) privo di bug, che viene continuamente arricchito di nuove funzionalità e aggiornato?
Se poi ti riferivi a non scrivere i programmi con i piedi questo è un altro discorso, allora si che le prestazioni potrebbero migliorare di molto..
vabbu' io vi ho detto quello che succederà tra 10 anni.
per i 200watt sono purtroppo necessari per alimentare la luce polarizzata.
la cosa buona è che non serve dissipazione termica...
e sopratutto niente scosse elettriche...
ashtisdale93
18-06-2009, 13:52
il videogamer si chiama videogamer perchè non è il consumatore tipico.
il consumatore tipico ultimamente è un po' cambiato, in quanto non disdegna il gioco ma tende al casualgamer, quindi con un pc di fascia media se ne sta a posto per anni finchè una sovratensione non gli fonde alimentatore e mobo.
Eccomi :D
Ho notato pure io che certi programmi noti stanno diventando dei veri mattoni per fare poco più di quello che facevano un tempo ( ad es. un noto programma di masterizzazione che solo per avviarsi ci mette una vita)
Come non quotarti!
Ecco perchè sono rimasto alla settima versione ;)
Mantis-89
18-06-2009, 14:36
Come non quotarti!
Ecco perchè sono rimasto alla settima versione ;)
Io alla sesta!! Il 9 l'ho solo provato a lavoro..
Shotokhan
18-06-2009, 15:36
se ve la devo dire tutta mi sono rotto del fatto che il mio pc sia vecchio dopo un anno, specie se dopo 3 anni è praticamente un cimelio.... continueranno a sviluppare per la ricerca e per uso personale si andrà avanti in maniera più lenta, meglio così!!!
se ve la devo dire tutta mi sono rotto del fatto che il mio pc sia vecchio dopo un anno, specie se dopo 3 anni è praticamente un cimelio..
se segui quello che dicono molti qua su...è cosi'..
ma se guardi veramente le tue esigenze...io faccio tutto con il p3
Anche io, che oggi ho un potentissimo Athlon2500+ con ben 1Gb di ram ed un centinaio di Gb di disco... nel 1992 mi domandavo cosa potessi farmene di:
-memoria che eccedeva i 640kb (fino ad arrivare ad 1 Mb).
-10 Mb di disco rigido che mi parevano impossibili da riempire, visto che nei 10 che occupavo c'era tutto ciò che mi serviva
-risoluzione video oltre i 640x480
-mouse
E pensavo che tutta quella roba non mi sarebbe mai servita. Se per quello non pensavo che mi sarebbe mai servito un sistema a finestre. Ho continuato a pensarlo almeno fino al 1997...
Tutto è relativo. Fra 10 anni le cose saranno probabilmente differenti. Se prevedere è compio per gli scrittori di fantascienza, fare ipotesi è per tutti.
Sicuramente nuovi desideri indotti ci verranno imculcati. Quando dovremo usare il proiettore tridimensionale al posto del monitor. Quando tutti avremo un prototipatore al posto di stampanti e scanner... Quando anzichè usare la tastiera comunicheremo col computer via comandi vocali... Servirà di sicuro un processore potentissimo rispetto a quelli di oggi!
Ora mi chiedo... nel 2014 ci venderanno un 32core come base, se nn di +, ma per fare cosa??
Ora cm ora un Dual Core basta e avanza... al max 4 Core. Anche per i videogiocatori + esigenti un 8 Core tra qlk hanno nn sapranno che farsene, se nn arricchire l'Enel...
e' tutta potenza inutilizzata...
Visione estremamente limitata la tua... Anche all'uscita dei quad core si diceva che un single core bastava e un dual era gia' troppo...
Ti ricordo anche che i primi dual intel (Pentium D) avevano un TDP di 130watt (Pentium D 940 3,2GHz che avevo io) mentre gia' un E2140 ha il TDP di 65watt. E vanno esattamente UGUALI, solo che E2140 ha meta' frequenza, un quarto di cache L2 e scalda niente. E si overclocca che e' un piacere.
Quindi inutile la tua frase, perche' magari nel 2014 un 6 core sara' come adesso e' un Pentium 3 e a 50 euro troverai un 10-12 core... E consumeranno niente.
Anche un hard disk da 500GB adesso consuma come un vecchio 20GB, a casa ho un disco normale samsung per portatile da 160GB che consuma quasi la meta' di uno vecchio da 40GB sempre per notebook, fai te...
In piu' aggiungo che Enel piange quando un processore e' in idle, visto che consuma quasi niente...
se ve la devo dire tutta mi sono rotto del fatto che il mio pc sia vecchio dopo un anno, specie se dopo 3 anni è praticamente un cimelio.... continueranno a sviluppare per la ricerca e per uso personale si andrà avanti in maniera più lenta, meglio così!!!
se segui quello che dicono molti qua su...è cosi'..
ma se guardi veramente le tue esigenze...io faccio tutto con il p3
Be' tutto e' relativo... Per chi come me gioca col pc, non basta un P3, pero' bisogna anche pensare quando si acquista un pc: se ad uno come Shotokhan (cosi' come a me) da' fastidio dover cambiare pc ogni 3 anni per stare a dietro ai videogiochi, bisogna allora ragionare e prendere un pc il piu' espandibile possibile... Ora col mio in firma, a parte la scheda video non penso che per almeno 5 anni cambio altro (sperando che 4GB bastino, se no mi devo procurare i banchi da 2GB :D). Il problema e' che ad un certo punto si raggiunge il limite.
Il pc che piu' mi e' durato di piu' e' un IBM Aptiva salcavolochemodelloè, Pentium 2 233MHz, 32MB ram (espansi a 160MB), ATI da 2MB + 2x Voodoo2 con 32MB totali, HDD 5,25" 4,2GB, HDD 7,5GB. Preso il 1997 con su Win95 poi diventato Win98SE con cd di aggiornamento e fino dopo l'estate del 2004 lo usavo ancora per i giochi...
Se non cambiano l'attacco delle schede video, chissa' che non mi duri altrettanto :)
Lithium_2.0
19-06-2009, 09:29
Io alla sesta!! Il 9 l'ho solo provato a lavoro..
Io sono passato a ImgBurn, agli amici/colleghi installo CDBurnerXP :)
Anche io, che oggi ho un potentissimo Athlon2500+ con ben 1Gb di ram ed un centinaio di Gb di disco... nel 1992 mi domandavo cosa potessi farmene di:
-memoria che eccedeva i 640kb (fino ad arrivare ad 1 Mb).
-10 Mb di disco rigido che mi parevano impossibili da riempire, visto che nei 10 che occupavo c'era tutto ciò che mi serviva
-risoluzione video oltre i 640x480
-mouse
E pensavo che tutta quella roba non mi sarebbe mai servita. Se per quello non pensavo che mi sarebbe mai servito un sistema a finestre. Ho continuato a pensarlo almeno fino al 1997...
Tutto è relativo. Fra 10 anni le cose saranno probabilmente differenti. Se prevedere è compio per gli scrittori di fantascienza, fare ipotesi è per tutti.
Sicuramente nuovi desideri indotti ci verranno imculcati. Quando dovremo usare il proiettore tridimensionale al posto del monitor. Quando tutti avremo un prototipatore al posto di stampanti e scanner... Quando anzichè usare la tastiera comunicheremo col computer via comandi vocali... Servirà di sicuro un processore potentissimo rispetto a quelli di oggi!
io seriamente ne dubito dei comandi vocali; bisognerebbe registrarne uno epr ogni funzione e sarebbero alquanto scomodi, per quanto mi riguarda penso che la tastiera non morirà mai, forse abbandonerà i tasti usuali, ma non sparirà. Inoltre credo che il prossimo passo sia la scomparsa della shell dai SO, sembra impossibile ora pensare ad un SO senza shell, ma sono sicuro che prima o poi sarà tutto gestito dall'interfaccia grafica, e questo sicuramente aumenterà la sicurezza.
io seriamente ne dubito dei comandi vocali; bisognerebbe registrarne uno epr ogni funzione e sarebbero alquanto scomodi, per quanto mi riguarda penso che la tastiera non morirà mai, forse abbandonerà i tasti usuali, ma non sparirà. Inoltre credo che il prossimo passo sia la scomparsa della shell dai SO, sembra impossibile ora pensare ad un SO senza shell, ma sono sicuro che prima o poi sarà tutto gestito dall'interfaccia grafica, e questo sicuramente aumenterà la sicurezza.
Mi sono espresso male... Intendevo una forma evoluta di riconoscimento vocale, il computer che ti ascolta e capisce che parli a lui, agendo di conseguenza. Un pò come la scena di blade runner in cui Deckart chiede al computer di ingrandire un dettaglio...
Comunque leggi il senso generale del mio discorso, non le singole previsioni, che sono basate sulla fantasia e sul sogno poetico della mia passione per la fantascienza.
Il senso è che non sappiamo cosa diventeranno i computer in futuro, ma visto come vanno le cose, richiederanno sempre maggiori risorse, per offrire servizi (o funzioni) delle quali ora (e forse anche domani) possiamo fare a meno.
Se non si potranno ottenere economicamente dei processori piccoli... o si continueranno ad affiancare processori, o si cambierà tecnologia.
Di sicuro non fermeranno "il progresso" (ovvero la macchina economica che hanno costruito per farci consumare anche le macchine) per così poco.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.