View Single Post
Old 11-07-2015, 08:34   #16
bobafetthotmail
Senior Member
 
L'Avatar di bobafetthotmail
 
Iscritto dal: Jun 2014
Messaggi: 3948
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Silicio o meno, l'importante per loro è tenere in piedi più possibile la legge di Moore.
Nel caso non lo avessi notato, la legge di Moore è morta dal 2008 circa. In passato non si è mai visto che della gente potesse ancora usare un PC di 7 anni prima senza grossi problemi (per carichi da ufficio ovviamente) o dei PC di anche 3-4 anni prima (con GPU aggiornata) per il gaming.

Come non si è mai visto di gente che usa ancora un sistema operativo che ha più di 10 anni (vedi XP) su macchine che hanno quell'età.

Quote:
Processori in grafene ? Pensi che non siano già fattibili ?
Cosa ti fa pensare che lo siano?

Gli articoli che ne parlano come questo http://www.extremetech.com/extreme/1...cmos-processes

dicono 10000 volte meglio dei chip in grafene di prima, cioè come le batterie duracell che durano X volte di più delle zinco-carbone che non esistono da decenni ormai.
E poi alla fine ammettono che quello è un chip analogico, non digitale (i processori sono chip digitali ovviamente).

Finchè non fanno comparazioni con un chip in silicio è abbastanza palese che stanno facendo schifo. Bisogna leggere gli articoli con attenzione, chi li scrive sensazionalizza scoperte minori, c'è veramente poco di rivoluzionario al momento.

Altri contender sono:
-nanotubi di carbonio (trasportano corrente elettrica ma sono molto più sottili di quanto un metallo potrà mai essere)
-chip ottici (invece che elettricità usano luce)

In tutti i casi (grafene, nanotubi e ottici) direi che IBM si stia smenando parecchio per produrre qualcosa di decente e soprattutto concorrenziale con un chip in silicio moderno.

Quote:
Probabilmente questi "tempi" sono anche scanditi dalle necessità di mercato anzichè dalla pura capacità di evoluzione.
Più che necessità di mercato sono costi di sviluppo.
Le nuove tecnologie sono più complesse delle vecchie, e questo causa un aumento immenso dei costi.

Considera che non devono solo "funzionare" come è accaduto per il silicio ai suoi tempi (dove non c'era nient'altro), devono andare MEGLIO del silicio o costare/consumare MOLTO meno a parità di prestazioni.
Le pretese per rendere queste tecnologie mainstream sono molto elevate, molto di più che quando si è iniziato col silicio che bastava che funzionasse o che fosse meglio della generazione precedente e andava bene.

Inoltre, tutti i costi di sviluppo da non so quanti nm a questi 7 nm li stanno pagando le vendite di sistemi elettronici oltre che gli investitori, ma i costi di sviluppo per raggiungere qualcosa di comparabile al silicio con altre tecnologie viene dagli investitori e basta perchè non li vuole nessuno dei chip che non sono meglio del silicio e costano un fottio in più.

Ultima modifica di bobafetthotmail : 11-07-2015 alle 08:41.
bobafetthotmail è offline   Rispondi citando il messaggio o parte di esso
 
1