Link alla notizia: http://www.businessmagazine.it/news/...ore_48407.html
Robert Colwell, membro del DARPA e in passato ingegnere per Intel, sostiene che la legge di Moore non potrà essere più sostenibile con il nodo di processo dei 7-5 nanometri Click sul link per visualizzare la notizia. |
"Non mi apsetto di vedere un'evoluzione dello stesso ordine di grandezza per i prossimi 30 anni"
bah... io direi "ci vediamo tra 30 anni" :) Finora chi ha pronunciato frasi di questo tipo e' sempre stato smentito e con il quantum computing alle porte starei ben attento prima di dare per morto moore |
Quote:
e in casa amd dal 2009 alle soglie del 2014 nella stessa fascia di prezzo i miglioramenti di prestazioni sono stati molto contenuti. e ovviamente niente lascia presagire una ripresa d accelerata negli incrementi prestazionali di generazione in generazione. |
bof.. tanto ci penserà il grafene a fornire un boost alle performance :D
comunque sembra che il software se ne sia in qualche modo reso già conto. sono anni ormai che l'os "che va per la maggiore" non aumenta in modo sconsiderato le risorse hardware necessarie per girare. |
Quote:
Un Atom Z2670 con win 8 gira fluido, con 7 o (ancor peggio) vista avrebbe grosse difficoltà. |
Più che la fine della Legge di Moore, potrebbe verificarsi una discontinuità.
Rimanendo sulle tecnologie attuali, Colwell ha probabilmente ragione, la miniaturizzazione a questi ritmi non è sostenibile. Io però non escluderei che nei prossimi decenni possa esserci il passaggio a tecnologie diciamo "rivoluzionarie" che possano riportare i processi ad aderire nuovamente alla linea immaginaria della Legge di Moore. @Vul La legge di moore non riguarda le prestazioni, ma il numero di transistor per area. Le valutazioni sui processori Intel e AMD non hanno molto a che fare con questo. |
Quote:
se quello spazio fosse stato utilizzato per i cores x86 il salto sarebbe stato enorme |
Vorrà dire che inizieranno a sviluppare i transistor in verticale come per le memorie NAND.
|
Quote:
la tua è pura speculazione specie perchè non sai quanto sarebbe costata una simile operazione. il prodotto di cui parli esiste gia e si chiama sandy bridge e. |
Non vorrei essere pignolo ma la Legge di Moore indica la crescita sui 18 mesi e non 2 anni come dice l'articolo, e inoltre è possibile vederla su due aspetti:
Quindi il limite del 2020 potrebbe essere tranquillamente polverizzato :D |
Quote:
Quote:
Dato che andò via dall'azienda all'inizio dell'avventura Netburst (la peggiore mai ideata) e ne era uno dei design engineer, aveva già sbagliato i conti. Adesso che fa? Sembra sparito. |
Ne dovrebbe giovare la qualità del software
Non si puo' pompare sempre e solo sull'hardware.
|
Quote:
Quote:
1) Willamette, lanciato nel 2000, è stato lanciato in anticipo rispetto al silicio disponibile. Aveva bisogno di un maggior quantitativo di memoria cache per via dei 20 stadi di elaborazione. Ma è stata primo dell'avvento degli Ahlon XP la cpu più veloce disponibile (parlo delle versioni da 1,8-2GHz) 2) Prescott, fu progettato con la presunzione che il silicio avrebbe garantito frequenze nell'ordine dei 5GHz (la stessa cosa è successa ad AMD e IBM, con quest'ultima che vende il POWER 7 alla frequenza di 4,2GHz a fronte dei 5,5+ GHz pubblicizzati 2 anni fa...) . Anche se il risultato è stato pessimo, si deve riconoscere che INTEL ha migliorato tantissimo molti aspetti della cpu per rendere l'ipc competitivo nonostante i 31 stadi di elaborazione. In mezzo c'è una cpu che, imho, era pari agli athlon 64: northwood. AMD dopo l'introduzione dell'athlon XP 2800+, ha pensato di incrementare più il model number che le prestazioni, mentre Intel ha reso disponibile Hyperthreading con un aumenti prestazionali a parità di clock consistenti. I miglioramenti introdotti con Netburst non sono certo stati abbondonati con la cessazione della produzione dei Pentium4, ma hanno giovato ad un architettura dalla pipeline di elaborazione lunghissima come Nehalem (il padre di SB, IB e Haswell) Quote:
Imho, questo riflette le difficoltà incontrate da IBM e AMD (le cpu da 20 core sono state cancellate) con i 32nm. FD-SOI potrebbe riaprire la partita. Fatto sta che AMD, bontà sua, ha le stesse esigenze a livello di silicio di IBM (e il fatto che abbiamo puntato in fase di progettazione allo stesso FO4 non credo proprio che sia un caso) Intel è ancora in grado di rispettare la legge di Moore. |
Sarebbe anche ora finisse... :P
Prima o poi l'informatica sara' come l'elettricita' o l'elettronica comune o la telefonia fissa: pervasiva, una black box funzionante. Se prendo un telefono di 50 anni fa, e lo attacco alla rete moderna, posso telefonare. Se prendo una lampada di 50 anni fa (magari cambio lampadina :asd: ) e la attacco alla corrente, funziona. Se prendo un computer di 50 anni fa, non so neanche da che parte girarlo, figuriamoci se posso farci funzionare un applicativo in modo semplice. Se riparo la lampada di mia nonna non ci sono grosse modifiche rispetto a lampade nuove, tranne che i contatti sono fatti meglio :asd: Se prendo un codice di 30 anni fa sviluppato su VACS, nonostante la conoscenza di un linguaggio estremamente statico come il FORTRAN, ci vogliono 4 giorni solo per capire le forme arcaiche deprecate e dialettali che erano state usate. Se uno sviluppasse in C o addirittura Java prenderebbe il codice e lo butterebbe nel cestino. Per fare cio', per avere che mio nipote prende in mano il mio applicativo e lo fa girare, serve avere una computazione pervasiva e standard, e' necessario fissare dei parametri, ivi comprese architetture, potenze...etc... E gia' ora ci si sta avvicinando, questo mondo e' molto piu' standard ora di poco tempo fa. Computer di 5 anni fa funzionano bene anche con applicativi nuovi. 10 anni fa con computer di 5 anni prima non potevi sperarlo. |
Quote:
certo poi i volumi di vendita sarebbero stati nettamente inferiori perchè non potevano metterli nei notebook di alta gamma, quindi senza economie di scala il prezzo sarebbe stato elevato |
Quote:
|
Quote:
Non e' statico esattamente come non e' statico cio' che attacchi alla rete elettrica o telefonica. Ma nonostante tutto la lampadina e il telefono di mia nonna continuano a funzionare anche con la rete del 2013, anche se di fianco hanno un tv lcd del 2013, il programma di 50 anni fa a volte si' (se rimaneggiato e ricompilato) spesso no, e' impossibile. Quote:
Questo programma che ho rimaneggiato (che non era cosi' vecchio) ha necessitato 3 persone che rimontassero la struttura hardware VAX, sistemassero i problemi di licenza, e interfacciassero il documento di testo in formato ASCII legggibile odiernamente. E mi e' arrivato un coso che, nonostante il linguaggio di alto livello e vecchio come Fortran, non aveva quasi nulla a che vedere col fortran con cui programmo e che sono abituato a utilizzare e ovviamente non era compilante con tutti i compilatori del 2013, ma solo uno. E' stato come ricevere una lettera in fiorentino del '600. In futuro voglio che un programma datato non sia l'equivalente di un oggetto antico con cui bisogna smanettare per ore per attaccarlo a qualcos'altro. Vorrei che sia l'equivalente di un oggetto da attaccare alla presa elettrica, e il computer sia come la rete elettrica che si prende delle cose e vanno. Senza avere necessita' di emulatori programmati ad hoc (quindi solo se c'e' richiesta) interfacce...etc... Ora non e' cosi'. In futuro dici di no? E' quello che spero. Quote:
Quote:
Non so se hai presente la situazione negli anni '90... Se prendevi un computer di 5 anni prima e pretendevi di installare Windows 95 si faceva una grassa risata il bios. Se prendevi un computer di 5 anni dopo e pretendevi di far funzionare Lotus 123 si faceva una grassa risata il sistema operativo. Per non parlare di stampanti e periferiche... Ora ci si muove molto di piu' verso una standardizzazione, una filosofia plug and play, appunto considerare il computer come un oggetto che deve produrre risultati semplici, non uno strumento dal potenziale illimitato ma anche dal potenziale di rosik sconfinato... una filosofia che tempo fa non c'era e che verra' solo rinforzata quando i limiti della legge di Moore (considerando i limiti dell'economia) rallenteranno la miniaturizzazione e la corsa alle performance. Cosa che a me sembra abbiano gia' iniziato a fare. Poi IMHO la legge di Moore non ha mai funzionato. La potenza dei PC e' stata virtualmente spinta da un incremento pazzesco dei consumi (un 486 consumava circa 5W, un Pentium 1 consumava circa 10 W, un Pentium 2 circa 20, un Pentium 4 almeno 40, ora non serve che ve lo ricordi... Ai tempi i primi ULV P4, consumavano 5W...), che ora stanno tornando nei margini. |
Quote:
Quote:
Quote:
Quote:
|
Tutti gli orari sono GMT +1. Ora sono le: 16:49. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.