PDA

View Full Version : In 6-8 anni i limiti della Legge di Moore


Redazione di Hardware Upg
27-04-2011, 10:16
Link alla notizia: http://www.hwupgrade.it/news/cpu/in-6-8-anni-i-limiti-della-legge-di-moore_36488.html

Secondo il presidente di TSMC nei prossimi 10 anni lo sviluppo dei semiconduttori andrà incontro a rallentamenti

Click sul link per visualizzare la notizia.

dolomiticus
27-04-2011, 10:26
si anche al epoca dei pentium 4 si diceva cheano alla ti passi da giganti

faglmt
27-04-2011, 10:31
si anche al epoca dei pentium 4 si diceva cheano alla ti passi da giganti

Omg, ma che cavolo hai scritto?

loripod
27-04-2011, 10:35
Omg, ma che cavolo hai scritto?
lol capita a volte:D
comunque mi chiedo se arriveranno allo zero assoluto prima o poi:mc:
cosa si potrà fare in seguito se arrivasse tutto ciò?:rolleyes:

mau.c
27-04-2011, 10:39
si anche al epoca dei pentium 4 si diceva cheano alla ti passi da giganti

omg... troll ermetico? che faccio segnalo?? aiuto! :asd:

speriamo si risolvano questi problemi... se calano troppo le vendite hardware potrebbero scendere e potrebbe essere una crisi per il settore...

PhoEniX-VooDoo
27-04-2011, 10:41
lol capita a volte:D
comunque mi chiedo se arriveranno allo zero assoluto prima o poi:mc:
cosa si potrà fare in seguito se arrivasse tutto ciò?:rolleyes:

ma è ironico?

bellinus
27-04-2011, 10:42
si anche al epoca dei pentium 4 si diceva cheano alla ti passi da giganti


mmm... non penso che sia una frase di senso compiuto 0.o

forse volevi scrivere:

si anche all' epoca dei p4 si diceva che erano ?????bo????? passi da gigante

Mparlav
27-04-2011, 10:44
Ad agosto 2009 Intel mostrò una propria roadmap, prevedendo i 32nm nel 2010 (e li ha centrati) ed i 22 nm nel 2012 (ed anche per questi ci siamo con ottime probabilità).
http://www.dvhardware.net/news/intel_technology_outlook_aug09.jpg

prevedono 8nm nel 2018 con die shrink intermedi ogni 2 anni.

Per certo i costi di sviluppo per ogni die shrink stanno diventando enormi, e si può ipotizzare un rallentamento dei die shrink da 2 a 2.5 anni, per consentire ad esempio l'introduzione dei wafer da 400-450mm per finanziare adeguatamente il passaggio.

Mi sembra strano che TSMC possa rallentare così tanto, anche alla luce dei cospicui finanziamenti effettuati nel 2010.

JackZR
27-04-2011, 10:56
Sono anni che si dice che la legge di Moore è arrivata alla frutta ma trovato il limite si trova la scappatoia e la legge rimane, in una maniera o nell'altra, valida.

rb1205
27-04-2011, 11:00
Mah, è da almeno una decina d'anni se non di più che sento di "un imminente arresto della legge di moore". Qualche anno fa i limiti erano legati ai consumi, poi alle frequenze, ora alla risoluzione della litografia.

Ma la legge di moore non si riferisce a nessuno di questi fattori, dice semplicemente che le prestazioni in un processore "tipo" raddoppiano ogni 2 anni. I parametri su cui si può lavorare sono molteplici, ad esempio all'epoca del pentium 4 raggirarono i limiti fisici con i multicore.


si anche al epoca dei pentium 4 si diceva cheano alla ti passi da giganti

Has anyone really been far even as decided to use even go want to do look more like?

Paganetor
27-04-2011, 11:30
magari è la volta buona che cominciano a ottimizzare i software... :asd:

c'è tanto di quel margine che sarà come fare un balzo in avanti nelle prestazioni di altri 15 anni! :D

aksjfsdkjfsdfsd
27-04-2011, 11:36
Appunto prima di toccare ancora l'hardware ci sarebbe da fare tanti miglioramenti sul software...

E poi comunque la legge di moore può essere rispettata adottando sempre più processori in uno...semplice ed economico.

Perseverance
27-04-2011, 11:48
Oltre a riscrivere il codice di certi software fatti coi piedi (citazione a caso: Adobe Flash...) bisognerebbe anche rifare i compilatori se non si vuol ritornare a scrivere la maggiorparte del codice in assembler "pulito".

s12a
27-04-2011, 11:49
Appunto prima di toccare ancora l'hardware ci sarebbe da fare tanti miglioramenti sul software...

E poi comunque la legge di moore può essere rispettata adottando sempre più processori in uno...semplice ed economico.

Il problema e` che:
- non tutti gli algoritmi sono parallelizzabili
- gli incrementi prestazionali diminuiscono di volta in volta all'aumentare dei core (collegato al punto 1: per quanto si possa parallelizzare un algoritmo, ci sara` sempre una parte, overhead, non parallelizzabile)
- il fatto che i programmi non si avvalgano della parallelizzazione non e` (solo) questione di pigrizia dei programmatori. La programmazione parallela e` molto piu` complessa e prona a bug di ogni genere di quella tradizionale.

psycho54h
27-04-2011, 12:07
comunque mi chiedo se arriveranno allo zero assoluto prima o poi:mc:
cosa si potrà fare in seguito se arrivasse tutto ciò?:rolleyes:

Il limite non può essere di certo lo zero assoluto a meno che tu non abbia qualche idea su come rivoluzionare la meccanica quantistica.
Se consideriamo che la doppia elica del DNA ha un diametro di circa 2,2 nm e 10 paia di basi occupano 3,4 nm possiamo supporre che i limiti siano su queste scale, o al massimo sui 0,2 nm che è la grandezza media di un legame chimico covalente.

aksjfsdkjfsdfsd
27-04-2011, 12:12
Il problema e` che:
- non tutti gli algoritmi sono parallelizzabili
- gli incrementi prestazionali diminuiscono di volta in volta all'aumentare dei core (collegato al punto 1: per quanto si possa parallelizzare un algoritmo, ci sara` sempre una parte, overhead, non parallelizzabile)
- il fatto che i programmi non si avvalgano della parallelizzazione non e` (solo) questione di pigrizia dei programmatori. La programmazione parallela e` molto piu` complessa e prona a bug di ogni genere di quella tradizionale.

Si hai ragione non ci avevo pensato subito. :rolleyes:

Rimane comunque il fatto che oggi ci sono computer dalla potenza di calcolo enorme rispetto a 10 anni fa...ma la maggiorparte della gente fa sempre le stesse cose: office, outlook, paint, solitario....
solo i browser, antivirus e sistemi operativi per allocchi mangiano questa potenza

avvelenato
27-04-2011, 12:37
dal momento che la "legge" di moore non è né una legge giuridica né una legge fisica, ma è solamente una constatazione empirica (poi pompata da intel a fini di marketing), nulla vieta che venga inventata una nuova "legge", per gli stessi fini di marketing. Ad esempio io propongo la "legge di leess": a parità di prestazioni, i consumi si dimezzano ogni 18 mesi.
Il problema fondamentale è trovare uno con un cognome simile :fagiano:

ReaToMe
27-04-2011, 12:50
Diciamo che ciclicamente ogni 6-8 anni (in realtà anche meno) l'unica cosa che accade è la pubblicazione di una non-news come questa...

p4ever
27-04-2011, 13:29
si anche al epoca dei pentium 4 si diceva cheano alla ti passi da giganti

io a questo punto userei un aiuto....facciamo il 50 e 50

ragazzocattivo
27-04-2011, 13:30
magari è la volta buona che cominciano a ottimizzare i software... :asd:

c'è tanto di quel margine che sarà come fare un balzo in avanti nelle prestazioni di altri 15 anni! :D


Quoto al 100%...

Stiamo usando processori della NASA per fare con windows7 quello che facevamo con win95....

Apri la cartella, chiudi la cartella, fai partire Winamp, fai partire il gioco, e naviga su internet.......:D

il tutto con processori multi-core e hardware migliaia di volte più potente e quasi del tutto sotto-utilizzato......... O addirittura DEL TUTTO inutilizzato.

E pensare che ai tempi dei primi pentium e delle prime schede video i programmatori riuscivano a fare dei veri e propri MIRACOLI con processori che oggi troviamo nelle calcolatrici e tra un po' pure negli orologi...

Ho giocato per mesi e mesi a quake 1 e a doom che occupavano meno di 30 mega e avevano un centinaio di livelli...

Oggi ti prendi un gioco che costa 50 euro occupa 15-20 giga, richiede un computer da guerre stellari, e lo finisci in 2 giorni....

Ai tempi del dos avevo giochi su floppy con 2\300 livelli che occupavano 3/5 megabyte ed erano più divertenti di quelli di oggi.

L'esagerata potenza disponibile di oggi, è servita solo a creare moltitudini di programmatori totalmente inetti che sperperano allegramente le risorse hardware senza ritegno nella certezza che per quanto programmeranno male il parco macchine installato oggi con vagonate di ram e processori multi core, riuscirà comunque a far girare le loro schifezze infarcite di migliaia di funzioni inutili, con decine di milioni di righe di codice ridondante, e centinaia di migliaia ( se non proprio MILIONI...) di bug.

Ai tempi di windows xp c'era chi diceva che circa un terzo del codice del S.O e quasi la metà di quello dei programmi e applicativi era spazzatura inutile...

Mi sa che oggi siamo arrivati al' 60% del S.O. e
quasi l'80% dei programmi e applicativi.

Quindi ben venga una bella frenata e si cominci ad utilizzare sul serio e meglio quello che già c'è senza bisogno di processori con 10.000 core raffreddati ad azoto liquido.

ReaToMe
27-04-2011, 13:34
@ragazzocattivo
giornata difficile?

PhoEniX-VooDoo
27-04-2011, 13:38
secondo me è tutto oramai talmente una merda che si andrà avanti cosi fino ad un eventuale ed ipotetico collasso del sistema "sw spazzatura bilanciato di hw sovradimensionato"

Il bello è che le sw house si lamentano continuamente che oramai sviluppare un gioco costa come un film e quindi qualcosa non torna in ogni caso..

ragazzocattivo
27-04-2011, 13:40
@ragazzocattivo
giornata difficile?

No.....Solo un rigurgito di nostalgia.;)

aksjfsdkjfsdfsd
27-04-2011, 13:43
Quindi ben venga una bella frenata e si cominci ad utilizzare sul serio e meglio quello che già c'è senza bisogno di processori con 10.000 core raffreddati ad azoto liquido.

Come non quotarti!!!

ptstony
27-04-2011, 14:50
La fine del mondo è vicina.

giofal
27-04-2011, 15:14
Per me la legge di Moore si potrebbe fermare anche ora.

La potenza delle cpu è già ampiamente sufficiente da diversi anni per fronteggiare gran parte delle esigenze.

Il mio Macbook Air ha un core duo da 1.86 mhz fa girare qualsiasi cosa anche pesante, consuma in tutto una decina di watt ed è pure incredibilmente veloce!

Sarebbe ora di concentrarsi sull'ottimizzazione del software.
È quello che fa la differenza.

coschizza
27-04-2011, 15:14
secondo me è tutto oramai talmente una merda che si andrà avanti cosi fino ad un eventuale ed ipotetico collasso del sistema "sw spazzatura bilanciato di hw sovradimensionato"

Il bello è che le sw house si lamentano continuamente che oramai sviluppare un gioco costa come un film e quindi qualcosa non torna in ogni caso..

Sviluppare costa e ottimizzare il codice ancora di piu quindi dal punto di vista del software avere hardware sempre piu veloce è fondamentale

Per chi fa hardware avere sempre nuove soluzioni che superano quelle precedenti è l'unico sistema per mantenere elevato il reciclo dell'hardware e far in modo che ci sia sempre qualcosa di nuovo da attrarre l'utente

Quindi dal punto di vista del mercato è impossibile che cambi qualcosa in futuro.

Sviluppare costa perche ormai ci sono sempre piu persone che seguono i progetti e il personale pesa piu di tutto quindi quello che oggi fai con 50-100 persone ieri lo facevi (in misura ovviamente ridotta) con 2-3 persone quindi è normale che ormai fare un gioco AAA costi come un film.

coschizza
27-04-2011, 15:18
Per me la legge di Moore si potrebbe fermare anche ora.

La potenza delle cpu è già ampiamente sufficiente da diversi anni per fronteggiare gran parte delle esigenze.

Il mio Macbook Air ha un core duo da 1.86 mhz fa girare qualsiasi cosa anche pesante, consuma in tutto una decina di watt ed è pure incredibilmente veloce!

Sarebbe ora di concentrarsi sull'ottimizzazione del software.
È quello che fa la differenza.

Quindi la tua proposta è chiudere tutte le aziende produttrici di hardware mondiale con decine di milioni di persone impiegate ?, non esiste altro modo per fare quello che chiedi perche se non si fa ricerca non si produce, non si vende e se non si vende non si lavora. Filosoficamente il tuo discorso è condivisibile ma non è praticabile ne in questo campo ne in nessun altro.

giofal
27-04-2011, 15:24
Quindi la tua proposta è chiudere tutte le aziende produttrici di hardware mondiale con decine di milioni di persone impiegate ?, non esiste altro modo per fare quello che chiedi perche se non si fa ricerca non si produce, non si vende e se non si vende non si lavora. Filosoficamente il tuo discorso è condivisibile ma non è praticabile ne in questo campo ne in nessun altro.

Ci sono mille altri settori dove impiegare la ricerca tecnologica per qualcosa di più utile per l'umanità.

Il mondo cambia, le esigenze cambiano, i mercati, le tecnologie e le ricerche debbono adeguarsi.

Se così non fosse stato staremo ancora tutti a zappare la terra

Pier2204
27-04-2011, 15:39
No.....Solo un rigurgito di nostalgia.;)

Brutta bestia la nostalgia..:D

Però il tuo discorso non è lontano dalla realtà, oggi si spende di più in marketing che in progettazione, meglio creare un gioco triple A scarsamente ottimizzato multipiattaforma piuttosto che sfruttare bene le risorse disponibili. Questo vale anche in altri settori, non solo quello videoludico.

Di contro c'è, se oggi un gioco non ha una trama degna di uno scrittore come Shakespeare, una colonna sonora alla Morricone, una sceneggiatura e una fotografia alla Stalney Kubrik viene classificato spazzatura, questo comporta costi notevoli e un utilizzo di risorse umane impensabili pochi anni fa, l'ottimizzazione passa in secondo piano.
Quindi le industrie chiedono sempre il processore più potente, la scheda grafica più potente (che comunque paghiamo noi) per avere meno costi sul tempo di programmazione e ottimizzazione.

Il conforto è che le buone idee vincono sempre a prescindere...

coschizza
27-04-2011, 15:44
Il mondo cambia, le esigenze cambiano, i mercati, le tecnologie e le ricerche debbono adeguarsi.

Se così non fosse stato staremo ancora tutti a zappare la terra

è se non lo fanno ? tutti a morte?

è il mercato che deve decidere

Ventresca
27-04-2011, 16:31
Per me la legge di Moore si potrebbe fermare anche ora.

La potenza delle cpu è già ampiamente sufficiente da diversi anni per fronteggiare gran parte delle esigenze.

Il mio Macbook Air ha un core duo da 1.86 mhz fa girare qualsiasi cosa anche pesante, consuma in tutto una decina di watt ed è pure incredibilmente veloce!

Sarebbe ora di concentrarsi sull'ottimizzazione del software.
È quello che fa la differenza.

non sono favorevole a fermare la ricerca sulle prestazioni dei processori, ma devo ammettere che se si fossero mossi un pò prima sugli SSD oggi ne avremmo giovato tutti quanti..

avvelenato
27-04-2011, 17:48
Quindi la tua proposta è chiudere tutte le aziende produttrici di hardware mondiale con decine di milioni di persone impiegate ?, non esiste altro modo per fare quello che chiedi perche se non si fa ricerca non si produce, non si vende e se non si vende non si lavora. Filosoficamente il tuo discorso è condivisibile ma non è praticabile ne in questo campo ne in nessun altro.

con la stessa motivazione ancora oggi ci trovavamo i lampionari ad accendere/spegnere le lanterne a gas.... è vero che l'utente a cui rispondi esagera, però il problema che pone è concreto: manca una killer application per questo sproposito di potenza computazionale.
A parziale giustificazione c'è da dire che questo riduce (anziché aumentare) i costi di sviluppo, a parità di complessità dell'applicazione, in quanto utilizzare un linguaggio più ad alto livello ed api più elaborate semplifica lo sviluppo (esempio: sviluppare due gestionali dalle funzioni/prestazioni equivalenti, uno che deve girare su sistemi pentium mmx e uno che deve girare su sistemi dual core). Quindi l'aumento dei costi è limitato ai progetti di crescente complessità, come tu stesso spieghi, e il vantaggio di quest'hw uberpotente è tutto degli sviluppatori di software non computazionalmente critico.

Però ci troveremo presto a un punto in cui neanche questo potrà più essere giustificato. A meno di non appesantire volutamente la fruibilità di alcuni servizi. Ad esempio, un filmato divx che può essere tranquillamente elaborato da un pentium II a 300mhz, ma se viene incorporato in un file flash c'è la concreta possibilità che scatti anche su di un pentium 4 vecchiotto. Tutto questo ha l'aria di voler giustificare un mercato a carico dei consumatori finali, impedendo loro di fruire di servizi a cui i dispositivi posseduti potrebbero benissimo accedere, e senza particolare impegno di sviluppo software, solo per spingerli ad un upgrade non necessario e desiderato.

Perseverance
27-04-2011, 18:05
un filmato divx che può essere tranquillamente elaborato da un pentium II a 300mhz

Puodarsi che sia vero, sul mio AMD Athlon Thinderbird a 1,4Ghz riesco a riprodurre un filmato H264 level 5.1 1080p, tramite VLC o il decoder FFDshow MMX. Il procio stà sull'80-95% xò và! Con altri software non si avvia nemmeno la riproduzione xkè il procio satura a 100%.

Luke2011
27-04-2011, 18:52
I limiti della legge di Moore con riferimento alle tecnologie odierne sono come le limitazioni alla medesima legge se applicata alla densità delle valvole nei calcolatori degli anni cinquanta: una questione puramente dipendente dalle tecnologie impiegate.

La legge di Moore è stata formulata originariamente in relazione ai semiconduttori, di silicio nello specifico, elettronici e binari. Nessuna di queste chiavi di volta dell'informatica odierna è necessariamente destinata a rimanere tale, lo confermano la sperimentazione sul grafene, sulla nanofotonica e i calcolatori quantistici.

Potremmo dover affrontare, un giorno, un "collo di bottiglia", rappresentato dalla giunta maturazione delle tecnologie binarie, elettroniche e al silicio, ma questo non vuol dire affatto che queste limitazioni permangano nel tempo.

Luke2011
27-04-2011, 18:55
e scusate.. volevo scrivere anche io un post inintellegibile con un generatore random connesso ad un dizionario, ma poi mi sono dimenticato... Parteciperò alla gara degli indovinelli la prossima volta.

psychok9
27-04-2011, 23:45
Bene... presto si fermeranno per un po'... e poi ripartiremo con tecnologia biologica e poi quantistica :D
Sempre che non finisca il mondo prima come credo :doh:

Pier2204
27-04-2011, 23:54
Bene... presto si fermeranno per un po'... e poi ripartiremo con tecnologia biologica e poi quantistica :D
Sempre che non finisca il mondo prima come credo :doh:

...una toccatina sotto...:eek:

gianluca.f
28-04-2011, 07:38
Quoto al 100%...

Stiamo usando processori della NASA per fare con windows7 quello che facevamo con win95....

Apri la cartella, chiudi la cartella, fai partire Winamp, fai partire il gioco, e naviga su internet.......:D


e praticamente con la stessa reattività. :muro:

comunque è vero, già sentita la previsione della disfatta della legge di Moore.

sbudellaman
28-04-2011, 07:45
Il mio Macbook Air ha un core duo da 1.86 mhz

Ghz :D

Baboo85
28-04-2011, 09:07
Piu' che limite della legge di Moore, direi limite fisico della dimensione minima di un transistor.

Ma si dice che la necessita' aguzza l'ingegno, si troveranno nuovi materiali, nuove tecnologie e nuovi tipi di computer.


Comunque questi ricercatori ogni tanto devono pur tirare fuori la stessa frase...

Diciamo che ciclicamente ogni 6-8 anni (in realtà anche meno) l'unica cosa che accade è la pubblicazione di una non-news come questa...

Esatto.

Quoto al 100%...

Stiamo usando processori della NASA per fare con windows7 quello che facevamo con win95....

Apri la cartella, chiudi la cartella, fai partire Winamp, fai partire il gioco, e naviga su internet.......:D

il tutto con processori multi-core e hardware migliaia di volte più potente e quasi del tutto sotto-utilizzato......... O addirittura DEL TUTTO inutilizzato.

E pensare che ai tempi dei primi pentium e delle prime schede video i programmatori riuscivano a fare dei veri e propri MIRACOLI con processori che oggi troviamo nelle calcolatrici e tra un po' pure negli orologi...

Ho giocato per mesi e mesi a quake 1 e a doom che occupavano meno di 30 mega e avevano un centinaio di livelli...

Oggi ti prendi un gioco che costa 50 euro occupa 15-20 giga, richiede un computer da guerre stellari, e lo finisci in 2 giorni....

Ai tempi del dos avevo giochi su floppy con 2\300 livelli che occupavano 3/5 megabyte ed erano più divertenti di quelli di oggi.

L'esagerata potenza disponibile di oggi, è servita solo a creare moltitudini di programmatori totalmente inetti che sperperano allegramente le risorse hardware senza ritegno nella certezza che per quanto programmeranno male il parco macchine installato oggi con vagonate di ram e processori multi core, riuscirà comunque a far girare le loro schifezze infarcite di migliaia di funzioni inutili, con decine di milioni di righe di codice ridondante, e centinaia di migliaia ( se non proprio MILIONI...) di bug.

Ai tempi di windows xp c'era chi diceva che circa un terzo del codice del S.O e quasi la metà di quello dei programmi e applicativi era spazzatura inutile...

Mi sa che oggi siamo arrivati al' 60% del S.O. e
quasi l'80% dei programmi e applicativi.

Quindi ben venga una bella frenata e si cominci ad utilizzare sul serio e meglio quello che già c'è senza bisogno di processori con 10.000 core raffreddati ad azoto liquido.

Be' tolto il discorso dei giochi e del "Stiamo usando processori della NASA per fare con windows7 quello che facevamo con win95", tutto il resto non posso che quotarlo.

Questa cosa si nota di piu' negli smartphone. La corsa al GHz e al multicore cosi' improvvisa e le ROM custom ti fanno notare come il codice non e' ottimizzato proprio per niente. Gingerbread gira con ROM custom sul primo Android, HTC G1 Dream con 528MHz di processore e 192MB di ram. E gira anche su HTC Desire HD con processore da 1GHz e 768MB di ram (di cui 380 circa libera, quindi l'altra meta' e' occupata) e sempre con ROM custom (quella originale Froyo era ancora piu' pesante).

Per me la legge di Moore si potrebbe fermare anche ora.

La potenza delle cpu è già ampiamente sufficiente da diversi anni per fronteggiare gran parte delle esigenze.

Il mio Macbook Air ha un core duo da 1.86 mhz fa girare qualsiasi cosa anche pesante, consuma in tutto una decina di watt ed è pure incredibilmente veloce!

Sarebbe ora di concentrarsi sull'ottimizzazione del software.
È quello che fa la differenza.

Ma infatti, senza generare flame, la Apple almeno ottimizza il suo OS per i suoi prodotti (fissi e mobili).

Idem per i giochi. Su console con hardware di 5 anni fa ci fanno miracoli, su un pc dove la potenza disponibile e' immensa, lo stesso gioco potrebbe girare a fatica. Anche qui l'ottimizzazione su pc manca.

Per tornare anche sul discorso smartphone, con una potenza e un consumo irrisori, si puo' fare qualsiasi lavoro di ufficio (solo come potenza sto parlando) e ci girano giochi 3D su processori da 1GHz monocore.
Meglio ancora, su iPod 2G riesco a giocare a Rage (o almeno ho fatto finta) e girava fluido.
Certo, la grafica e la risoluzione dei giochi su console/pc e' molto piu' avanzata, ma la differenza di potenza dei dispositivi e' immensa.

Relok
28-04-2011, 09:15
Beh come dicevano nella pubblicità del pennello cinghiale. Basta fare i processori più grossi per aumentarne la potenza.

Poi casomai li utilizziamo come stufe d'inverno.

alexdal
28-04-2011, 09:41
Il limite e' la fisica.

se so trovasse il modo di aprire un quark forse tutta la potenza elevata alla 20ima potrebbe essere contenuta li dentro.

i limiti sono relativi alla conoscenza.

Adesso la conoscenza e' ancora molto bassa e teorica.

sbudellaman
28-04-2011, 11:01
Il limite e' la fisica.



Nah, l'unico limite è la nostra fantasia :D

Quando il silicio non ci basterà più, useremo altri materiali. O tecnologie completamente differenti (vedi computer quantistici e cose simili ).

Raghnar-The coWolf-
28-04-2011, 11:12
Nah, l'unico limite è la nostra fantasia :D

Quando il silicio non ci basterà più, useremo altri materiali. O tecnologie completamente differenti (vedi computer quantistici e cose simili ).

Non ci basterà più per fare cosa scusa? O_O

A parte noi scienziati (e pure noi ottimizziamo sempre meno e sperperiamo HW sempre di più) chi cavolo se ne fa cosa di un computer quantistico?

Baboo85
28-04-2011, 11:18
Non ci basterà più per fare cosa scusa? O_O

A parte noi scienziati (e pure noi ottimizziamo sempre meno e sperperiamo HW sempre di più) chi cavolo se ne fa cosa di un computer quantistico?

A giocare coi porting delle console :asd:

Scusate ma stavolta non ho resistito :asd:

Comunque a noi forse nulla. Ma chi lo sa, saranno i computer del futuro in grado di far girare un interfaccia olografica. O magari un'intelligenza artificiale casalinga... Che ne sai :)

In fondo, non penso che in Matrix ci fossero solo 486 :asd:

Raghnar-The coWolf-
28-04-2011, 11:24
Vero ma non sono applicazioni "personal computer"

Baboo85
28-04-2011, 11:38
Ma che c'entra...

Per navigare in internet non devi avere per forza davanti un monitor, una tastiera ed un mouse...

Io un computer come i terminali pubblici di Mass Effect lo vorrei eccome in casa...

Il personal computer e' un computer adatto alle esigenze di una persona. Ma non per questo significa che l'esigenza di uno e' la stessa di tutti.

Anche solo interfacce grafiche avanzate (pensa anche oltre al monitor che hai davanti, gia' il 3D e' un'altro tipo di interfacciamento e consuma circa il doppio della potenza) o, come continuo a pensare, un'intelligenza artificiale (che non per forza e' simile ad un umano, anche la classica "casa del futuro" dovrebbe avere un'intelligenza artificiale minima, secondo me) hanno bisogno di potenze sempre maggiori.

Anche perche' puoi ottimizzare finche' vuoi, ma un video FullHD su un Commodore 64 non ce lo fai girare nemmeno se ottimizzi a livello binario :asd:

Raghnar-The coWolf-
28-04-2011, 11:47
Sì ma per questi Task silicio e transistor a 8nm sono ottimi e abbondanti. (oddio l'IA dipende quanto avanzata la vuoi, sarebbe comoda e tutto quanto ma quel territorio è terra incognita quindi per ora non lo considero)

Sarebbero sufficienti anche i computer che abbiamo già se l'ottimizzazione fosse buona, se si sfruttasse la scheda video come si deve per l'interfaccia del PC...etc... potresti creare interfacce a risoluzioni stratosferiche, 3D, centinaia di fps...etc...

Se il software è ottimizzato e l'hardware montato bene (anche attuale) i video su una ATI 6800 puoi farceli girare in 4K.

Baboo85
28-04-2011, 13:17
Se il software è ottimizzato e l'hardware montato bene (anche attuale) i video su una ATI 6800 puoi farceli girare in 4K.

Lo sanno tutti, anche i programmatori. Ma gli unici che lo fanno sono quelli "amatoriali" (mondo opensource e modifiche varie come le rom custom android) e la Apple.
Il resto, vuoi per la varieta' di piattaforme ma piu' perche' vogliono "lo sold" subito, non ottimizzano un cavolo, se non gli conviene (vedi appunto videogiochi: per console gli costa meno lo sviluppo e c'e' poca pirateria (scusa banale, perche' si e' visto che i veri videogiochi vendono lo stesso milioni di copie), mentre su pc lo sviluppo costa di piu' e c'e' piu' pirateria).