View Full Version : Intel: i 14nm a partire dal 2013, dal 2015 allo studio i 10 nanometri
Redazione di Hardware Upg
15-09-2012, 09:31
Link alla notizia: http://www.hwupgrade.it/news/cpu/intel-i-14nm-a-partire-dal-2013-dal-2015-allo-studio-i-10-nanometri_43769.html
Il colosso di Santa Clara delinea la tabella di marcia per i prossimi anni: produzione a 14nm dalla fine del 2013, mentre ricerca e sviluppo per 10, 7 e 5 nanometri a partire dal 2015
Click sul link per visualizzare la notizia.
pierluigi74
15-09-2012, 12:06
5 nm... :eek:
Mi sembra che ci possa essere un ritardo per i 10 nm, se l'articolo dice il giusto la intel dovrebbe cominciare a fare ricerca sui 10 nm solo nel 2015, ma secondo la tabella di marcia che vede un tic un'anno e un toc l'anno dopo dovremmo avere i primi processori a 10 nm in vendita il 2016, ma se la ricerca inizia solo il 2015 non mi pare possibile....
coschizza
15-09-2012, 13:06
doppio post
coschizza
15-09-2012, 13:09
Mi sembra che ci possa essere un ritardo per i 10 nm, se l'articolo dice il giusto la intel dovrebbe cominciare a fare ricerca sui 10 nm solo nel 2015, ma secondo la tabella di marcia che vede un tic un'anno e un toc l'anno dopo dovremmo avere i primi processori a 10 nm in vendita il 2016, ma se la ricerca inizia solo il 2015 non mi pare possibile....
l'articolo messo cosi mi sembra fuorviante perche non è vero che la ricerca inizia solo nel 2015 sono gia svariati anni che si lavora per questo scopo e mica devono iniciare fra 2 anni, tutte le fasi sono sovrapposte e non si passa da una all'altra ma si parralelizza, quindi oggi che abbiamo cpu a 22nm l'intel ha gia prototipi a 14nm funzionanti cosa che ha gia detto di avere e mostrato e sta gia testando in laboratorio con cpu semplici come memorie sram con litografie < di 14nm.
Per il 10-5 nm serviranno nuove teconologie litografiche basate su EUV che sono in sviluppo perpetuo da quasi 10 anni ma dall'articolo invece sembra che devono appena iniziare, forse la traduzione dall'inglese ha tratto in inganno peche quello che viene scritto va in contrasto con quello che ha detto e mostrato l'intel ai vari IDF degli ultimi anni.
Se l'intel o qualsiasi altra ditta o fonderia inziasse realmente la ricerca solo nel 2015 significherebbe che avremmo il primo prodotto a 10nm molti ma molti anni dopo cosa ovviamente impossibile.
PS
Ho letto una decina di altri articoli della stessa sessione dell'idf è tutto l'hanno descritta in maniera diversa cioè nel 2015 è prevista l'uscita della litografia a 10nm non l'inizio della ricerca quella si è fatto prima e si sta fecendo ora , mi sembrava strano io IMHO correggerei l'articolo perche come ho notato certi utenti non esperti vengono tratti in inganno e si fanno idee sbagliate.
Taurus19-T-Rex2
15-09-2012, 13:55
finiti i nanometri cosa faranno? :sofico:
Raghnar-The coWolf-
15-09-2012, 14:20
finiti i nanometri cosa faranno? :sofico:
si cambia materiale!
14nm in anticipo del previsto allora?
sarebbe strafigo...
14nm e DDR4 :sbav:
Considerata la potenza di calcolo ed il consumo ridicolo di una soluzione dual core Sandy Bridge, non oso immaginare quali saranno le caratteristiche delle future architetture a 14 e 10nm.
Mi asupico che, per iniziare, si dia il via alla cooperazione, in ambito desktop, fra gpu integrata e discreta.
GPU discreta totalmente disattivata (zero consumi e ventola spenta) in ambito 2d/riproduzione 720p/1080p, ed attivata solo in 3d, il tutto in maniera trasparente per l'utente.
maxmax80
15-09-2012, 18:30
per il discorso consumi fa piacere tutta sta miniaturizzazione,
ma se uno non ha particolari esigenze di spazio, un 775 fa praticamente ancora le stesse cose di un 1155 con una manciata di Watt in più..
quindi boh, per gli utlilizzatori normali, ovvero la stragrande maggioranza dei consumatori che hanno un middletower sotto una scrivania, tutte ste innovazioni del processo produttivo (obbligatorie & necessarie all' evoluzione) risultano alla fin della fiera un po' inutili..
sdjhgafkqwihaskldds
15-09-2012, 19:50
per il discorso consumi fa piacere tutta sta miniaturizzazione,
ma se uno non ha particolari esigenze di spazio, un 775 fa praticamente ancora le stesse cose di un 1155 con una manciata di Watt in più..
quindi boh, per gli utlilizzatori normali, ovvero la stragrande maggioranza dei consumatori che hanno un middletower sotto una scrivania, tutte ste innovazioni del processo produttivo (obbligatorie & necessarie all' evoluzione) risultano alla fin della fiera un po' inutili..
Appena uscì il 775 molti fecero simili discorsi "ma alla gente basta e avanza il 478, a che serve tutta questa evoluzione? Mha... è il solito marketing..."
Le ricerche continuano anche se agli utilizzatori normali va ancora bene il proprio PC sotto la scrivania.
La tendenza è sempre stata quella di rendere più efficiente l'architettura per realizzare portatili più leggeri, più potenti, e dall'autonomia maggiore di quelli attuali, desktop e server più potenti ed efficienti a parità di spazio.
E in seguito la tendenza sarà sempre questa, fino ai limiti fisici del silicio, per poi passare ad altro.
Pensa se si fermasse tutto: andrei adesso a comprare un PC e trovo roba con il Pentium D 830, 6800GT, 2GB DDR2 667, HD 250GB, che consuma 400W, oppure notebook con il Pentium M da 3Kg che durano massimo 2 ore, per far girare gli stessi programmi e/o gli stessi giochi.
per il discorso consumi fa piacere tutta sta miniaturizzazione,
ma se uno non ha particolari esigenze di spazio, un 775 fa praticamente ancora le stesse cose di un 1155 con una manciata di Watt in più..
quindi boh, per gli utlilizzatori normali, ovvero la stragrande maggioranza dei consumatori che hanno un middletower sotto una scrivania, tutte ste innovazioni del processo produttivo (obbligatorie & necessarie all' evoluzione) risultano alla fin della fiera un po' inutili..
Ne dubito.
Passando da 775 (e5200) a 1155 (i3 2120) non solo il consumo è sceso di qualche decina di watt (e, credimi, se in casa hai più di un computer, coi mesi, la differenza sulla bolletta la senti), ma in alcuni task come la compressione x264, il framerate al secondo è quasi raddoppiato (a parità di frequenza fra le due cpu, 3.3ghz), con tempo di encoding quindi quasi dimezzato. In generale, anche in molte altre attività si sente la nuova cpu.
Che poi la ragazzina che naviga su Facebook possa farne a meno, è un altro discorso, ma credo non sia rilevante ai fini dell'evoluzione del mercato. Credo che anche lei, se provasse una cpu di 4/5 anni più vecchia, potrebbe avvertire qualche differenza.
se riduciamo di 20w a pc x 1.000.000 di pc ci risparmiamo qualche centrale super-inquinante, tonnellate di Co2, petroliere che girano ecc...
Raghnar-The coWolf-
16-09-2012, 10:16
Ne dubito.
Passando da 775 (e5200) a 1155 (i3 2120) non solo il consumo è sceso di qualche decina di watt (e, credimi, se in casa hai più di un computer, coi mesi, la differenza sulla bolletta la senti), ma in alcuni task come la compressione x264, il framerate al secondo è quasi raddoppiato (a parità di frequenza fra le due cpu, 3.3ghz), con tempo di encoding quindi quasi dimezzato. In generale, anche in molte altre attività si sente la nuova cpu.
Che poi la ragazzina che naviga su Facebook possa farne a meno, è un altro discorso, ma credo non sia rilevante ai fini dell'evoluzione del mercato. Credo che anche lei, se provasse una cpu di 4/5 anni più vecchia, potrebbe avvertire qualche differenza.
La ragazzina che naviga su Facebook si prende l'iMac o qualche derivato che monta CPU mobile a consumo ridotto e non si accorge la differenza, ma comunque consuma meno cosa che male non fa...
Se tornano i computer desktop a basso consumo come una volta, male non fa di certo, dopo la corsa ai GHz (e Watt) dello scorso decennio...
Se tornano i computer desktop a basso consumo come una volta, male non fa di certo, dopo la corsa ai GHz (e Watt) dello scorso decennio...
in ogni caso se uno ha un pc a livello ecologico-risparmio è sempre meglio tenerlo rispetto a cambiarlo ...
i 14nm li vedo bene per sistemi mobile che hanno una durata bassa (considerando le batterie saldate)
La ragazzina che naviga su Facebook si prende l'iMac o qualche derivato che monta CPU mobile a consumo ridotto
Hai una fonte o è una tua opinione? Non sono sicuro che il numero dei "papi senza fabbrichetta" disposti a spendere da 1200euro in su per far navigare la figlioletta su Facebook, sia così elevato, di questi tempi. I derivati (AKA scopiazzature dell'iMac), se possibile, hanno una quota di mercato risibile, specie in casa.
Credo proprio che gli assemblati dominino ancora per distacco il mercato.
Se tornano i computer desktop a basso consumo come una volta, male non fa di certo, dopo la corsa ai GHz (e Watt) dello scorso decennio...
I desktop a basso consumoci sono sempre stati (lo stesso mio computer, in fondo, oscilla fra i 50 ed i 100w di picco, non è poco ma non è moltissimo), così come c'erano quando Intel lanciava Prescott da 140w di tdp (ovviamente, fatte le proporzioni rispetto al consumo medio di allora, un core barton o un core venice vincevano per distacco), basta saperli assemblare, non lo prescrive il medico di andare di i7+hd7900.
Su silentpcreview puoi vedere come, con un i3/i5 da desktop, un alimentatore da portatile, ed una buona regolazione dei voltaggi, si arrivi a consumare meno di una lampadina da tavolo.
Raghnar-The coWolf-
16-09-2012, 11:01
Ai tempi dei 486 una CPU media consumava meno di 15W, la GPU discreta era optional di lusso. Se poi con un accurato montaggio sia possibile abbassare il consumo del PC a livelli accettabili, non lo nego, ma un conto è farlo di default, come possono fare soluzioni derivate da die shrink.
Soluzioni con CPU a bassi consumi fioriranno sempre di più, anche in ambito desktop, una volta che la potenza è sufficiente per far girare le animazioni fighe e gli applicativi utili.
Così come sono fioriti gli iMac, fioriranno, e stanno fiorendo, soluzioni più economiche per l'ufficio e la casa.
maxmax80
16-09-2012, 13:02
sì, ragazzi, sono io il primo che utilizza processori a basso consumo (nei miei pc fissi)
ma calcolate anche che un quad core da 35Watt non è che te lo tirano dietro, (il mio i5-2500T è costato 180€+sped, mentre il rarissimo l' L3110 quasi 4 anni fa mi costò 220 pippi...)
il mio attuale Q9550S (a basso consumo anche esso) su P45 Diamond con HD6450,2 schede audio, controller ventole,controlle Sata III, 2SSD, 2HDD, attualmente mi fa consumare circa "ben" 60watt in idle!!
bisogna anche vedere se il cambio di piattaforma e/o semplicemente di CPU è giustificato dal prezzo da ammortizzare per l' uso che se ne fa..
diverso discorso per i pentium o gli i3 serie "T" da 35W, ma la discrepanza di consumi con i corrispondenti modelli "non T" da 65W è davvero minima..
poi se mi paragonate un i3-2100T con un vecchio Pentium 3Ghz da 105Watt allora beh, qualche differenza direi che c'è..ma con il famoso e6600 in termini di consumi/prestazioni non ci sono grosse differenze....con il processo produttivo attuale, con quelli futuri si spera -ovviamente- di sì..
skablast
16-09-2012, 13:37
Attualmente una soluzione fanless abbastanza potente per uso ufficio io non sono riuscito a trovarla.
Se Haswell mi riduce il rumore delle ventole, ben venga.
Raghnar-The coWolf-
16-09-2012, 15:40
sì, ragazzi, sono io il primo che utilizza processori a basso consumo (nei miei pc fissi)
ma calcolate anche che un quad core da 35Watt non è che te lo tirano dietro, (il mio i5-2500T è costato 180€+sped, mentre il rarissimo l' L3110 quasi 4 anni fa mi costò 220 pippi...)
il mio attuale Q9550S (a basso consumo anche esso) su P45 Diamond con HD6450,2 schede audio, controller ventole,controlle Sata III, 2SSD, 2HDD, attualmente mi fa consumare circa "ben" 60watt in idle!!
bisogna anche vedere se il cambio di piattaforma e/o semplicemente di CPU è giustificato dal prezzo da ammortizzare per l' uso che se ne fa..
diverso discorso per i pentium o gli i3 serie "T" da 35W, ma la discrepanza di consumi con i corrispondenti modelli "non T" da 65W è davvero minima..
poi se mi paragonate un i3-2100T con un vecchio Pentium 3Ghz da 105Watt allora beh, qualche differenza direi che c'è..ma con il famoso e6600 in termini di consumi/prestazioni non ci sono grosse differenze....con il processo produttivo attuale, con quelli futuri si spera -ovviamente- di sì..
Nono, ma certo.
Io dico solo che va messo il tutto in prospettiva.
Secondo me questo progresso nei die-shrink è indirizzato anche al basso consumo e non è una cattiva cosa. Nel corso degli anni si andranno a sostituire i PC come li conosciamo (middletower...etc...) con soluzioni sempre più integrate, compatte, ed ecologiche, almeno nella fascia casual user e ufficio.
unfaced12
16-09-2012, 16:23
Nono, ma certo.
Io dico solo che va messo il tutto in prospettiva.
Secondo me questo progresso nei die-shrink è indirizzato anche al basso consumo e non è una cattiva cosa. Nel corso degli anni si andranno a sostituire i PC come li conosciamo (middletower...etc...) con soluzioni sempre più integrate, compatte, ed ecologiche, almeno nella fascia casual user e ufficio.
Se per questo, quello che soddisfa le esigenze del casual user,e anche ufficio con applicazioni Office già oggi sta dentro ad una chiavetta;) http://liliputing.com/2012/06/pocket-tv-usb-stick-turns-a-tv-into-an-android-powered-pc.html
maxmax80
16-09-2012, 16:24
Se per questo, quello che soddisfa le esigenze del casual user,e anche ufficio con applicazioni Office già oggi sta dentro ad una chiavetta;) http://liliputing.com/2012/06/pocket-tv-usb-stick-turns-a-tv-into-an-android-powered-pc.html
praticamente è come avere uno smartphone su USB!:doh:
ma che schifo daì!!!:p
unfaced12
16-09-2012, 16:38
praticamente è come avere uno smartphone su USB!:doh:
ma che schifo daì!!!:p
Non intendevo questo.... dicevo che la potenza di quel coso è sufficiente per una buona parte di utenza che il PC lo usa per andare su FB e leggere le mail.
Sevenday
16-09-2012, 22:41
L'economia deve girare, così come la ricerca.
In un modo o nell'altro renderanno i vecchi sistemi obsoleti, anche se in linea di massima, escluso i consumi, sistemi di 4-5 anni fa, sono più che sufficienti per la maggior parte dell'utenza.
Cmq spero di esserci per quando sarà finita la corsa ai nm, per vedere che si inventeranno... :cool:
rockroll
17-09-2012, 23:35
L'economia deve girarw, ma a vantaggio di tutti, non solo di multinazionali ed organizzazioni commerciali.
La ricerca deve avanzare, non la speculazione brevettuale basata sulla fuffa.
E per me parlare di 5 nm è fuffa, sapendo quali sono i limiti fisici ed a quali problematiche si va incontrsno per raggiungerli, a fronte di un gioco che non val più la candela. Sbaglierò, ma gia 10 nm lo vedo come un'utopia.
Inutile accanirsi su tecnologie limite che più di tanto non possono dare: la ricerca deve rivolgersi ad orizzonti nuovi, che abbiano prospettive di miglioramento su ben altri ordini di grandezza che non pochi punti percetuali. Ma aziende che hanno per scopo il lucro anzichè il progresso umano non si avventurano in ricerche i cui ritorni economici non sono sicuri o potrebbero non arrivare mai.
Cercare miglioramenti ad esito positivo probabile su tecnologie esistenti da decenni può farlo chiunque abbia volglia di investire denaro senza rischiare più di tanto; cercare e studiare tecnologie nuove e inedite, indipendentemente dal ritorno immediato, è compito dei veri ricercatori con gli attributi, non di aziende il cui scopo è il lucro!
Raghnar-The coWolf-
17-09-2012, 23:47
beh a me sembra che le grandi ditte facciano ricerca SIA per continuare a macinare Die Shrink come se la legge di Moore non avesse confini, CHE investendo in nuove tecnologie.
Transistor al Grafene, Silicene, transistor monoatomici, sono tutte scoperte della Intel, che non mi sembr aper niente stare con le mani in mano.
Sevenday
17-09-2012, 23:59
Beh, anche il silicio ha i suoi limiti...chiaro che devono trovare una soluzione.
Poi che serva tra 2 anni o 20 non lo sappiamo. Dipenderà da quanto vogliono correre con la ricerca.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.