PDA

View Full Version : TSMC punta ai 5 nanometri nel 2020


Redazione di Hardware Upg
19-01-2016, 08:00
Link alla notizia: http://www.hwupgrade.it/news/cpu/tsmc-punta-ai-5-nanometri-nel-2020_60376.html

La fonderia taiwanese tratteggia la roadmap dei prossimi anni: nodo a 7 nanometri pronto per il 2018 e nodo a 5 nanometri, con tecnologia EUV, due anni più tardi

Click sul link per visualizzare la notizia.

GTKM
19-01-2016, 08:44
7nm entro due anni?
Con le difficoltà che già si incontrano provando a scendere a 10nm, mi sembra veramente ottimistica come roadmap.

roccia1234
19-01-2016, 09:07
Intanto sono quanti anni che aspettiamo i 14 nm? :stordita:

CrapaDiLegno
19-01-2016, 09:38
Intanto sono quanti anni che aspettiamo i 14 nm?
A quanto pare TMSC non farà i 14nm, passerà dai 20nm Finfet (i sui 16nm) ai 10nm Finfet.
L'EUVL sembra sarà usato per i 5nm, non i 7nm.
Le tempistiche sembrano ottimistiche, ma tutto dipende sempre da quanto sono i guadagni che l'azienda fa e può fare investendo.
Un tempo c'era solo Intel a correre con il PP perché era in grado di fare un volume di soldi che gli altri non riuscivano. Oggi il mercato è cambiato.
Samsung in 3 anni (e dico 3) è passata dai 32nm ai 14nm Finfet. Quindi se ci si mette abbastanza soldi si arriva quando si vuole.
Il problema è tutto di Intel che oggi non ha un volume di produzione e vendita come una volta. I suoi Atom non vendono e una fabbrica a 14nm non è mai stata aperta. Non so se potrà continuare a reggere la concorrenza se il mercato x86 non cambia.
Se la prossima generazione di processori a 10nm avrà un guadagno prestazionale del 10% come nelle precedenti generazioni forse riuscirà ad ammortizzare i costi nel 2024, visto che nessuno sarà invogliato a comprarli (come già sta succedendo ora).
E' una azienda strapiena di soldi, ma se non trova il modo di cambiare il suo business non credo riuscirà ad essere ancora il leader nella produzione di microprocessori a lungo.

GTKM
19-01-2016, 09:44
A quanto pare TMSC non farà i 14nm, passerà dai 20nm Finfet (i sui 16nm) ai 10nm Finfet.
L'EUVL sembra sarà usato per i 5nm, non i 7nm.
Le tempistiche sembrano ottimistiche, ma tutto dipende sempre da quanto sono i guadagni che l'azienda fa e può fare investendo.
Un tempo c'era solo Intel a correre con il PP perché era in grado di fare un volume di soldi che gli altri non riuscivano. Oggi il mercato è cambiato.
Samsung in 3 anni (e dico 3) è passata dai 32nm ai 14nm Finfet. Quindi se ci si mette abbastanza soldi si arriva quando si vuole.
Il problema è tutto di Intel che oggi non ha un volume di produzione e vendita come una volta. I suoi Atom non vendono e una fabbrica a 14nm non è mai stata aperta. Non so se potrà continuare a reggere la concorrenza se il mercato x86 non cambia.
Se la prossima generazione di processori a 10nm avrà un guadagno prestazionale del 10% come nelle precedenti generazioni forse riuscirà ad ammortizzare i costi nel 2024, visto che nessuno sarà invogliato a comprarli (come già sta succedendo ora).
E' una azienda strapiena di soldi, ma se non trova il modo di cambiare il suo business non credo riuscirà ad essere ancora il leader nella produzione di microprocessori a lungo.

Non è solo una questione di soldi (tra l'altro, passare da 32 a 14 è un conto, scendere da 14 a 10, ad esempio, un altro). Non è che se dai 10.000.000.000$ al signor Fisica, cambiano le difficoltà che incontri scendendo a 5nm eh.

Cappej
19-01-2016, 09:44
boia... 5 nm... averlo detto 20 anni fa ... " i limiti del silicio!!!!!"

tanta roba!

Cappej
19-01-2016, 09:46
Non è solo una questione di soldi (tra l'altro, passare da 32 a 14 è un conto, scendere da 14 a 10, ad esempio, un altro). Non è che se dai 10.000.000.000$ al signor Fisica, cambiano le difficoltà che incontri scendendo a 5nm eh.

no ma magari con 10.000.000.000$ ti fai un adeguato R&D che svilupperà un sistema atto a non avere problemi a 5nm...

GTKM
19-01-2016, 09:48
no ma magari con 10.000.000.000$ ti fai un adeguato R&D che svilupperà un sistema atto a non avere problemi a 5nm...

Sì ma il sistema richiede tempo e verifiche. In tutto ciò, bisogna anche vedere se i costi sono sostenibili (il che significa: è possibile ammortizzare e guadagnare dai nuovi PP prima dell'Apocalisse?).

CrapaDiLegno
19-01-2016, 11:17
Se hai molti soldi puoi cominciare a sperimentare con PP avanzati molto prima. Non credere che lo studio del successivo PP cominci solo con la messa in produzione di quello attuale. Vi sono gruppi al lavoro in maniera parallela. Ognuno arriva con tempi diversi ma i 5nm sono già al lavoro in tutte le fabbriche anche se mancano ancora i 10 e i 7nm.
La disponibilità di soldi determina quanti cervelli e risorse puoi mettere a risolvere i problemi che incontri e rimanere in tabella di marcia.

tra l'altro, passare da 32 a 14 è un conto, scendere da 14 a 10, ad esempio, un altro
Ogni passaggio di PP ha le sue problematiche da risolvere, non è che tra i 32 e i 20nm i problemi si risolvono facilmente mentre tutti gli scogli del mondo ci sono solo da 10nm in giù. Altrimenti Intel non avrebbe speso 6 miliardi oltre il preventivato per riuscire a mettere in commercio il primo chip a 14nm con un anno di ritardo e oggi saremmo già a 10nm in attesa di risolvere tutti i problemi legati a quel PP avendo facilmente risolto quelli precedenti.

ASML ha già prodotto macchine con l'EUVL, solo che vi sono ancora diversi ostacoli perché siano adeguati alla produzione di massa. Per risolvere questi problemi è necessario che ci si impegni a risolverli. Più cervelli metti, prima arrivi alla soluzione. Se TMSC mette 1000 cervelli, Samsug 100 e Intel 10, ammettendo che non vi siano geni tra questi cervelli (che comunque facilmente passano da una azineda all'altra) seccondo te chi arriva prima ad avere i 5nm pronti nei tempi prestabiliti?

I conti per ammortizzare le spese, come detto, dipendono dal volume e dai margini di vendita. Negli ultimi anni, clienti come Qualcomm e Apple stanno distribuendo diverse quantità di miliardi alle fabbriche per i loro SoC. E la produzione è andata a aumentando. E anche tanto. Viceversa Intel, pur avendo margini superiori, ha diminuito (e non poco) la propria produzione di chip, tanto da non aver aperto una delle fabbriche che aveva previsto di usare per i 14nm.
Se la prospettiva di aumentare ordini, vendite e guadagni è all'orizzonte, si fa una roadmap per arrivare a sfruttare il meglio investendo quello che si deve/può.
Se all'orizzonte si vedono nuvole e problemi, ovviamente la roadmap è ben diversa e gli investimenti si adeguano.

Vash88
19-01-2016, 13:49
di questo passo entro 10 anni si sarà arrivati ai limiti fisici del silicio. Gli aggiornamenti saranno relativi ad architettura e materiale semiconduttore impiegato (molto difficile?). Si comincia a intravedere la fine di un era di miniaturizzazione e crescita esponenziale nelle capacità prestazionali dei processori

cdimauro
19-01-2016, 16:56
Il problema è tutto di Intel che oggi non ha un volume di produzione e vendita come una volta.
Dipende da cosa (quali prodotti) intendi per vendere.
I suoi Atom non vendono
L'hai già affermato altre volte. Fonti?
e una fabbrica a 14nm non è mai stata aperta.
Non vuol dire che non lo sarà.
Non so se potrà continuare a reggere la concorrenza se il mercato x86 non cambia.
Intel è già cambiata da un pezzo: non è più soltanto un produttore di processori. E' diventata un'azienda di semiconduttori.
Se la prossima generazione di processori a 10nm avrà un guadagno prestazionale del 10% come nelle precedenti generazioni forse riuscirà ad ammortizzare i costi nel 2024, visto che nessuno sarà invogliato a comprarli (come già sta succedendo ora).
Dipende cosa intendi con quel 10%: solo dovuto all'IPC? Perché le prestazioni possono salire anche per altre motivazioni.
E' una azienda strapiena di soldi, ma se non trova il modo di cambiare il suo business non credo riuscirà ad essere ancora il leader nella produzione di microprocessori a lungo.
Veramente è quel che sta facendo già da tempo. Basti vedere i diversi progetti che ha tirato fuori, e le acquisizioni.

Un grosso tassello che le mancava erano le memorie, ma di recente ha presentato le 3DXPoint.

Più di questi, come segnali del cambiamento che è in atto...
Ogni passaggio di PP ha le sue problematiche da risolvere, non è che tra i 32 e i 20nm i problemi si risolvono facilmente mentre tutti gli scogli del mondo ci sono solo da 10nm in giù. Altrimenti Intel non avrebbe speso 6 miliardi oltre il preventivato per riuscire a mettere in commercio il primo chip a 14nm con un anno di ritardo e oggi saremmo già a 10nm in attesa di risolvere tutti i problemi legati a quel PP avendo facilmente risolto quelli precedenti.
Vedremo chi presenterà concretamente prodotti a 10nm. TSMC s'è addirittura candidata per quest'anno.

I conti li faremo quando arriveranno prodotti in volume.
Viceversa Intel, pur avendo margini superiori, ha diminuito (e non poco) la propria produzione di chip
Hai dati a supporto di quest'affermazione?
di questo passo entro 10 anni si sarà arrivati ai limiti fisici del silicio. Gli aggiornamenti saranno relativi ad architettura e materiale semiconduttore impiegato (molto difficile?). Si comincia a intravedere la fine di un era di miniaturizzazione e crescita esponenziale nelle capacità prestazionali dei processori
Mi pare scontato: gli atomi hanno una determinata dimensione, e non si può certo pretendere di scendere oltre un certo limite nella dimensione dei transistor.

L'unica soluzione al problema è trovare nuovi materiali che consentano di risalire nuovamente in frequenza. Ma anche qui prima o poi si arriverà a un limite fisico.

La "legge" di Moore è destinata a non essere più valida. Il problema è "soltanto" determinare il quando.

Personaggio
19-01-2016, 17:42
Dipende da cosa (quali prodotti) intendi per vendere.

L'hai già affermato altre volte. Fonti?

Non vuol dire che non lo sarà.

Intel è già cambiata da un pezzo: non è più soltanto un produttore di processori. E' diventata un'azienda di semiconduttori.

Dipende cosa intendi con quel 10%: solo dovuto all'IPC? Perché le prestazioni possono salire anche per altre motivazioni.

Veramente è quel che sta facendo già da tempo. Basti vedere i diversi progetti che ha tirato fuori, e le acquisizioni.

Un grosso tassello che le mancava erano le memorie, ma di recente ha presentato le 3DXPoint.

Più di questi, come segnali del cambiamento che è in atto...

Vedremo chi presenterà concretamente prodotti a 10nm. TSMC s'è addirittura candidata per quest'anno.

I conti li faremo quando arriveranno prodotti in volume.

Hai dati a supporto di quest'affermazione?

Mi pare scontato: gli atomi hanno una determinata dimensione, e non si può certo pretendere di scendere oltre un certo limite nella dimensione dei transistor.

L'unica soluzione al problema è trovare nuovi materiali che consentano di risalire nuovamente in frequenza. Ma anche qui prima o poi si arriverà a un limite fisico.

La "legge" di Moore è destinata a non essere più valida. Il problema è "soltanto" determinare il quando.

Magari fra 10 anni inventano dei transistor subatomici, quando hai sistemi in grado di creare transistor di una manciata di atomi, stai molto vicino alla possibilità di gestire direttamente particelle subatomiche. Le cui prestazioni, essendo una fisica diversa con grandezze completamente differenti e forze addirittura opposte, in alcuni casi, potrebbero anche aumentare vertiginosamente.

CrapaDiLegno
19-01-2016, 17:45
#cdmauro

Ma li leggi i dati trimestrali dell'azienda in cui lavori?
Hanno dichiarato loro che la vendita degli Atom è scesa del 33%, e in totale i processori per Netbook del 10%.
Sono scesi anche le vendite dei processori per server (1%) ma visto che ha aumentato i prezzi, e non di poco, per ora è riuscita a contenere le perdite e fare ancora degli utili.
Il MOL è sceso di oltre 1 punto % e la previsione è che scenda anche il prossimo trimestre.

L'investimento nelle memorie NAND e 3DXPoint è certamente una ottima mossa, ma la prima ha margini tendenti a zero, la seconda deve ancora arrivare.

Purtroppo per la tua azienda l'orizzonte non è dei migliori. Ti ricordo che i processi produttivi costano e non poco e si pagano solo tramite i prodotti che si vendono. Se non ce la si fa più si fa come AMD e IBM: si vendono le fabbriche e ci si affida a terzi che riescono a riempire le linee usando più clienti.
Oppure Intel, più probabile, alla fine aprirà le porta anche a terzi.
Inoltre la storia della fabbrica che è chiusa e che forse riaprirà è un anno e mezzo che va avanti. Tra un po' si va a 10nm e quella fabbrica, per essere utile deve essere aggiornata. I soldi spesi per aggiornala ai 14nm non si ammortizzano certo tenendola ferma. Ogni giorno di fermo sono milioni che non entrano, ma sono miliardi quelli che sono andati per costruirla. E se non la apre non è perché sono dei bambi. E' perché non hanno abbastanza ordini da soddisfare. Il che vuol dire che qualcosa è andato storto da quando avevano deciso di costruirla per previsioni un po' troppo ottimistiche a quando invece hanno deciso di non farlo perché la realtà è diversa dalle previsioni.
Probabilmente pensavano di fare Atom a 14nm da vendere a prezzi oltraggiosi mentre la concorrenza rimaneva ai 28. Purtroppo invece la concorrenza si è mossa e molto velocemente e le è arrivata addosso con PP molto simili partendo da molto lontano (vedere la progressione di Samsung). E grazie ad altre architetture meno elefantiache, bastano e avanzano per avere grandi vantaggi sui suoi prodotti. Prodotti che neanche svenduti hanno avuto successo. E finiti gli incentivi... pofff... 30% in meno solo nell'ultimo trimestre.
Congiungi il mancato successo nel mercato più in espansione dedgli ultimi 5 anni con il fatto che il mercato consumer è in costante contrazione e quello dei server in costante stagnazione, e vedi che non ci vuole la sfera magica per dedurre che il numero di pezzi venduti in questi anni è andato riducendosi. E la fabbrica non aperta lo conferma.

cdimauro
19-01-2016, 17:45
Sì, ma i protoni e i neutroni sono costituiti da 3 quark ciascuno. L'elettrone è già una particella elementare.

Per cui anche se fosse possibile fruttare direttamente i quark, non cambierebbe di molto la situazione.

Il limite della materia è che è finita...

cdimauro
19-01-2016, 17:52
#cdmauro

Ma li leggi i dati trimestrali dell'azienda in cui lavori?
Hanno dichiarato loro che la vendita degli Atom è scesa del 33%, e in totale i processori per Netbook del 10%.
Sono scesi anche le vendite dei processori per server (1%) ma visto che ha aumentato i prezzi, e non di poco, per ora è riuscita a contenere le perdite e fare ancora degli utili.
Il MOL è sceso di oltre 1 punto % e la previsione è che scenda anche il prossimo trimestre.
Sì, i dati li leggo, e gli Atom sono impiegati in prodotti di diverse fasce di mercato.

Mi sai dire quanto hanno perso in totale?
L'investimento nelle memorie NAND e 3DXPoint è certamente una ottima mossa, ma la prima ha margini tendenti a zero, la seconda deve ancora arrivare.
Beh, lascia almeno che venga messa in commercio: è una novità.
Purtroppo per la tua azienda l'orizzonte non è dei migliori. Ti ricordo che i processi produttivi costano e non poco e si pagano solo tramite i prodotti che si vendono. Se non ce la si fa più si fa come AMD e IBM: si vendono le fabbriche e ci si affida a terzi che riescono a riempire le linee usando più clienti.
Intel ha acquisito anche altre aziende. Una su tutte: Altera. Che vende parecchi chip.
Oppure Intel, più probabile, alla fine aprirà le porta anche a terzi.
Lo sta già facendo da un pezzo.
Inoltre la storia della fabbrica che è chiusa e che forse riaprirà è un anno e mezzo che va avanti. Tra un po' si va a 10nm e quella fabbrica, per essere utile deve essere aggiornata. I soldi spesi per aggiornala ai 14nm non si ammortizzano certo tenendola ferma. Ogni giorno di fermo sono milioni che non entrano, ma sono miliardi quelli che sono andati per costruirla. E se non la apre non è perché sono dei bambi. E' perché non hanno abbastanza ordini da soddisfare. Il che vuol dire che qualcosa è andato storto da quando avevano deciso di costruirla per previsioni un po' troppo ottimistiche a quando invece hanno deciso di non farlo perché la realtà è diversa dalle previsioni.
Non è un mistero che il passaggio ai 14nm abbia creato dei problemi. Per tutti. Intel l'ha toccato con mano prima degli altri.
Probabilmente pensavano di fare Atom a 14nm da vendere a prezzi oltraggiosi mentre la concorrenza rimaneva ai 28. Purtroppo invece la concorrenza si è mossa e molto velocemente e le è arrivata addosso con PP molto simili partendo da molto lontano (vedere la progressione di Samsung).
Direi di no. Hai visto il confronto fra i processi produttivi di Intel, Samsung, e TSMC?
E grazie ad altre architetture meno elefantiache, bastano e avanzano per avere grandi vantaggi sui suoi prodotti. Prodotti che neanche svenduti hanno avuto successo. E finiti gli incentivi... pofff... 30% in meno solo nell'ultimo trimestre.
Questo, come già detto, era ampiamente prevedibile, e molto probabilmente già preventivato.

L'obiettivo era entrare e ritargliarsi una fetta di mercato, e mi sembra che, numeri alla mano, l'operazione stia dando i suoi frutti.
Congiungi il mancato successo nel mercato più in espansione dedgli ultimi 5 anni con il fatto che il mercato consumer è in costante contrazione e quello dei server in costante stagnazione, e vedi che non ci vuole la sfera magica per dedurre che il numero di pezzi venduti in questi anni è andato riducendosi. E la fabbrica non aperta lo conferma.
Ci sono anche altre problematiche di carattere economico: purtroppo il dollaro forte ha contribuito notevolmente.

Zenida
19-01-2016, 20:33
Sì, ma i protoni e i neutroni sono costituiti da 3 quark ciascuno. L'elettrone è già una particella elementare.

Per cui anche se fosse possibile fruttare direttamente i quark, non cambierebbe di molto la situazione.

Il limite della materia è che è finita...

E chi l'ha detto?? xD
Cioè voglio dire, con le conoscenze che abbiamo oggi non possiamo sapere se la materia è "finita". Io credo l'opposto, ovvero che la materia sia infinitamente piccola (come l'universo è infinitamente grande).

Per chiarire.. come può l'elettrone essere "elementare"? di qualcosa dev'essere "composto" no? Siamo portati a credere che non ci sia nulla... eppure qualcosa lo governa... ha delle proprietà e delle caratteristiche distinte da altri elementi... perchè?
Idem le particelle sub-atomiche, ma anche queste particelle devono essere "composte" di qualcosa, e così via all'infinito.

Certo questa è solo una mia personale supposizione, ma dato che qui tutti sono fisici teorici, lo faccio un pò anch'io xD. Tra l'altro è una teoria che ho sempre dato per scontato sin da quando ero piccolo.

Cioè se 2 cose sono diverse, vuol dire che qualcosa al loro "interno" le rende diverse, le caratterizza. è difficile invece giustificare il contrario. Se ad un certo punto la materia è finita, allora come è possibile che della materia priva di una specifica proprietà possa generare un sistema con delle proprietà?

cdimauro
19-01-2016, 20:43
Mi spiace infrangere i tuoi sogni: LUNGHEZZA DI PLANCK (https://www.quag.com/it/thread/23777/lunghezza-di-planck/) :D

Zenida
19-01-2016, 22:20
Mi spiace infrangere i tuoi sogni: LUNGHEZZA DI PLANCK (https://www.quag.com/it/thread/23777/lunghezza-di-planck/) :D

No forse mi sono espresso male prima.. non ho detto che sarà possibile continuare a miniaturizzare la nostra tecnologia... ho solo ribattuto all'affermazione che la materia è "finita".

leggendo l'articolo che hai citato, alla fine è una quasi conferma. Ovvero che ci sia altro al di là di un quark... ed il problema è che è così piccolo che è già difficile definirne lo spazio, figuriamoci la loro posizione e composizione. In poche parole (per il momento) non saremo in grado di scendere oltre una certa scala (a livello di conoscenza non di miniaturizzazione).

Ma questo non nega la possibilità di una dimensione infinitamente piccola e, ovviamente, con leggi della fisica completamente differenti.

rockroll
20-01-2016, 01:27
ecco, si sono montati la testa :asd:

Stavolta sono daccordo. Si sta raschiando il fondo del barile.

Se Intel, strapiena di soldi, ha sofferto quel che ha sofferto per raggiungere i 14 nm, voglio proprio vedere le difficoltà che costoro incontreranno per raggiungere i 7 o addirittura i 5 nm... ammesso che sia praticamente fattibile restando su tecnologie al silicio.

E poi, sono convinto che scornarsi con la miniaturizzazione spinta paghi sempre meno; esisteranno ben altre tecnologie in un futuro magari prossimo, potenzialmente in grado di surclassare la corsa alla miniaturizzazione: chi la detto che piccolo è bello in tutti i casi?

rockroll
20-01-2016, 01:51
No forse mi sono espresso male prima.. non ho detto che sarà possibile continuare a miniaturizzare la nostra tecnologia... ho solo ribattuto all'affermazione che la materia è "finita".

leggendo l'articolo che hai citato, alla fine è una quasi conferma. Ovvero che ci sia altro al di là di un quark... ed il problema è che è così piccolo che è già difficile definirne lo spazio, figuriamoci la loro posizione e composizione. In poche parole (per il momento) non saremo in grado di scendere oltre una certa scala (a livello di conoscenza non di miniaturizzazione).

Ma questo non nega la possibilità di una dimensione infinitamente piccola e, ovviamente, con leggi della fisica completamente differenti.

Condivido circa il frazionamento delle materia potenzialmente infinitesimo, da un punto di vista teorico non ci sono limiti al microcosmo come al macrocosmo. Peccato che per forza di cose noi poveri omuncoli siamo in grado forse di capire ma non di dominare fenomi legati a ordini grandezza molto diversi da quelli delle nostre stesse dimensioni.

Come ho già detto, la miniaturizzazione come noi la conosciamo paga sempre di meno in rapporto agli sforzi per attuarla, ed il limite esiste sicuramente (e ci siamo vicini), come esisteva un limite nei microscopi ottici, superato di brutto con cambio radicale di tecnologia (microscopi elettronici).
Mi aspetto l'analogo prima o poi anche per i P.P., con buona pace della corsa alla miniaturizzazione tanto di moda.

GTKM
20-01-2016, 08:28
Ma soprattutto, va ricordato che queste aziende non investono nelle fonderie per renderci felici, ma per vendere. Il che significa che i costi sono un punto cruciale.

CrapaDiLegno
20-01-2016, 12:44
Sì, i dati li leggo, e gli Atom sono impiegati in prodotti di diverse fasce di mercato.
Mi sai dire quanto hanno perso in totale?
Ultima riga del rapporto di bilancio: -30%.

Saranno anche impiegati a fare quello che vuoi, sta di fatto che il mercato complessivo vede più di un miliardo di SoC ARM all'anno montati in Smartphone e Tablet e Intel non arriva a 30 milioni. Forse anche 20.
Certamente, è un successone, visto che avevano il mercato tutto per loro prima che arrivasse ARM a far man bassa del mercato "dei poveretti" (quello che Intel pensava fosse quando vendeva quegli Atom strafalcioni con chipset peggiori della CPU stessa montati nei netbook). Salvo poi ravvedersi e partire in quarta aggiornandoli ai PP sempre più nuovi.. ma ormai.. ciao ciao!
E sarà ciao ciao per molto tempo, visto che se prima con un intero PP+Finfet di vantaggio non riusciva ad avere la meglio, ora le rimane solo mezzo PP di vantaggio. Sarà che il PP degli altri non è buono come quello di Intel, ma non hai compreso quello che ti ho detto prima: non serve fare meglio o uguale ad Intel per avere il vantaggio totale: dimensioni, consumi e sopratutto, cosa che spesso ignori da buon tecnologo, costi. Che sono poi quelli che decidono cosa mettere o meno all'interno di un dispositivo.

Intel ha acquisito anche altre aziende. Una su tutte: Altera. Che vende parecchi chip.
Certo, ha dovuto farlo per riuscire a riempire le fabbriche. Probabilmente visto i numeri in gioco ha pensato bene di fare 2 cose furbe in una sola volta: tenersi i guadagni completi della vendita di quei chip e di introdurre la novità delle FPGA nelle proprie CPU. Di certo il costo non è stato nullo. Altro capitale da ammortizzare negli anni successivi.

Questo, come già detto, era ampiamente prevedibile, e molto probabilmente già preventivato.

L'obiettivo era entrare e ritargliarsi una fetta di mercato, e mi sembra che, numeri alla mano, l'operazione stia dando i suoi frutti.
Mi sembra invece che gente come te non dicesse affatto così prima. Sei andato avanti per anni a decantare le mirabolanti caratteristiche degli Atom facendo orecchie da mercante quando ti dicevo che erano pari solo per via del PP migliore che Intel poteva sfornare.
E se mi ricordo bene avevi pronosticato che gli ARM sarebbero stati relegati a fascia bassa nel mobile perché gli Atom avrebbero preso il sopravvento grazie alla loro migliore combinazione di consumi e prestazioni.
Peccato per te che io avessi ragione e tu invece no. Ignorare informazioni e dati solo perché non ci piacciono non ci permettono certo poi di fare previsioni corrette.
Questo trimestre -30. Il prossimo dubito che vi sarà una variazione positiva.

I problemi legati ai 14nm non sono quelli che hanno tenuto chiuso la fabbrica. Il problema non è il ritardo ma il volume di produzione. Intel negli ultimi anni ha sformato così poco invitanti architetture che nessuno ha sentito la mancanza dei 14nm anche quando sono arrivati un anno dopo il previsto. Nessuno si è precipitato a cambiare il PC perché le vecchie soluzioni erano obsolete e quei mesi di ritardo li avevano resi ancora più obsoleti.
Cosa che invece, se fai un raffronto, non capita con i SoC ARM che per ora godono ancora della legge di Moore e ad ogni generazione permettono di avere sistemi nettamente più potenti dei precedenti (non chiedermi a cosa servano, ma la gente li vuole).
O con le GPU: vedremo se all'uscita delle nuove architetture realizzate con 16nm di TMSC (dopo un ritardo di 2 anni di un nuovo PP per cancellazione dei 20nm) gli utenti faranno come con le CPU Intel, ovvero acquisteranno solo quando il PC gli si rompe o se vi sarà la corsa come quando arrivarono quelle a 28nm.

Personaggio
20-01-2016, 17:23
Condivido circa il frazionamento delle materia potenzialmente infinitesimo, da un punto di vista teorico non ci sono limiti al microcosmo come al macrocosmo. Peccato che per forza di cose noi poveri omuncoli siamo in grado forse di capire ma non di dominare fenomi legati a ordini grandezza molto diversi da quelli delle nostre stesse dimensioni.

Come ho già detto, la miniaturizzazione come noi la conosciamo paga sempre di meno in rapporto agli sforzi per attuarla, ed il limite esiste sicuramente (e ci siamo vicini), come esisteva un limite nei microscopi ottici, superato di brutto con cambio radicale di tecnologia (microscopi elettronici).
Mi aspetto l'analogo prima o poi anche per i P.P., con buona pace della corsa alla miniaturizzazione tanto di moda.

solo negli anni 40 dello scorso secolo si è potuto mettere mano e quindi controllare la materia a livello nucleare, negli ultimi 20, invece stiamo studiando la fisica subnucleare teorizzata 50 anni fa, anche se riusciamo a generare particelle subatomiche, ancora non siamo in grado di controllarle. In questo campo ancora niente è certo, solo pochi anni fa fu dimostrata l'esistenza del Bosone di Higgs ma ancora non lo si è fatto per il gravitone (la particella responsabile della trasmissione della forza di gravita in un sistema quantistico) se si dovesse scoprire la sua non esistenza si dovrebbe ricominciare tutto da capo. Ora sappiamo come sono formate le particelle subatomiche, sostanzialmente da quark, quark che hanno caratteristiche differenti, possono essere con carica positiva o con carica negativa, ma come giustamente dice qualcuno da cosa è causata questa carica? Cioè sappiamo che la carica di un protone è positiva perché la i quark di cui fa parte (2 up e uno down) la rendono con carica positiva, ma perché i quark possono essere con carica positiva o negativa non lo sa nessuno, è probabile che esistano delle sub-subparticelle. Un Quark ha una dimensione di 10^-18, 10 miliardi di volte più piccolo di un transistor prodotto oggi. Creare un "Quarkistor" per esempio delle porte NAND con un insieme di quark, significa diminuire di ben 4 ordini di grandezza le dimensioni dei SOC.
E stando al limiti teorizzato attualmente dalla fisica esso è di 10^-35, migliardi di migliardi di volte più piccolo di un Quark. Ce ne sta ancora a miniaturizzare...

cdimauro
20-01-2016, 22:16
Ultima riga del rapporto di bilancio: -30%.
Che riguarda soltanto i tablet:

"Tablet platform volumes of 9 million units decreased 33%"

mentre io avevo chiesto altro:

"Sì, i dati li leggo, e gli Atom sono impiegati in prodotti di diverse fasce di mercato.
Mi sai dire quanto hanno perso [U]in totale?"

Infatti, oltre che nei tablet sono impiegati anche in smartphone, server, networking (router et similia), e sistemi embedded in generale (come il decoder TIM Vision di cui avevo passato il link qualche giorno fa; tanto per fare un esempio).
Saranno anche impiegati a fare quello che vuoi, sta di fatto che il mercato complessivo vede più di un miliardo di SoC ARM all'anno montati in Smartphone e Tablet e Intel non arriva a 30 milioni. Forse anche 20.
Perché quando parli di SoC ARM ne consideri la totalità, ma per gli Atom prendi solo Smartphone (che prima non avevi citato) e table?

Stai confrontando due cose diverse.
Certamente, è un successone, visto che avevano il mercato tutto per loro prima che arrivasse ARM a far man bassa del mercato "dei poveretti" (quello che Intel pensava fosse quando vendeva quegli Atom strafalcioni con chipset peggiori della CPU stessa montati nei netbook). Salvo poi ravvedersi e partire in quarta aggiornandoli ai PP sempre più nuovi.. ma ormai.. ciao ciao!
Ma infatti il problema è che non ha investito subito sugli Atom, usando i processi produttivi migliori.

Per il resto ti faccio notare che fu Apple a bussare alla porta di Intel chiedendo un SoC per il futuro iPhone, e Otellini rifiutò perché non vedeva abbastanza margini: tanto schifo non dovevano certo fare. Infatti, pur essendo i primi a 32nm, almeno a livello prestazionale erano messi molto bene.
E sarà ciao ciao per molto tempo, visto che se prima con un intero PP+Finfet di vantaggio non riusciva ad avere la meglio, ora le rimane solo mezzo PP di vantaggio. Sarà che il PP degli altri non è buono come quello di Intel, ma non hai compreso quello che ti ho detto prima: non serve fare meglio o uguale ad Intel per avere il vantaggio totale: dimensioni, consumi e sopratutto, cosa che spesso ignori da buon tecnologo, costi. Che sono poi quelli che decidono cosa mettere o meno all'interno di un dispositivo.
Infatti sono anche i motivi che hanno consentito di vendere lo stesso pur senza incentivi...
Certo, ha dovuto farlo per riuscire a riempire le fabbriche. Probabilmente visto i numeri in gioco ha pensato bene di fare 2 cose furbe in una sola volta: tenersi i guadagni completi della vendita di quei chip e di introdurre la novità delle FPGA nelle proprie CPU.
L'integrazione con gli FPGA era in lavorazione già da tempo: da MOLTO prima che circolassero le prime voci dell'acquisizione di Altera.

Inoltre Altera è già partner di Intel da parecchio tempo.

Ma Intel non ha mai operato negli FPGA, che è un settore in continua espansione. Da cui la motivazione dell'acquisizione.
Di certo il costo non è stato nullo. Altro capitale da ammortizzare negli anni successivi.
Pur essendo una piccola realtà rispetto a Intel, Altera è un punto di riferimento in ambito FPGA, ed è un'azienda in continua crescita, per cui non credo che Intel farà fatica ad ammortizzare l'investimento. Oltre al fatto che adesso molti costi sono eliminati, e in più sarà possibile realizzare più celermente soluzioni nuove.
Mi sembra invece che gente come te non dicesse affatto così prima. Sei andato avanti per anni a decantare le mirabolanti caratteristiche degli Atom facendo orecchie da mercante quando ti dicevo che erano pari solo per via del PP migliore che Intel poteva sfornare.
Ne abbiamo già parlato, e ti ho fatto notare che anche i primi Atom, a 32nm anziché i 28nm degli ARM dell'epoca, erano competitivi.
E se mi ricordo bene avevi pronosticato che gli ARM sarebbero stati relegati a fascia bassa nel mobile perché gli Atom avrebbero preso il sopravvento grazie alla loro migliore combinazione di consumi e prestazioni.
Peccato per te che io avessi ragione e tu invece no. Ignorare informazioni e dati solo perché non ci piacciono non ci permettono certo poi di fare previsioni corrette.
Non mi sono mai sognato di dire nulla del genere. Quotami pure, e fammi vedere cos'avrei detto.

Io ricordo, invece, che c'erano scettici sul fatto che Intel potesse arrivare all'obiettivo dei 40 milioni di tablet venduti, che invece ha superato (44 milioni, se non erro).
Questo trimestre -30. Il prossimo dubito che vi sarà una variazione positiva.
Vedremo come si assesterà.
I problemi legati ai 14nm non sono quelli che hanno tenuto chiuso la fabbrica. Il problema non è il ritardo ma il volume di produzione. Intel negli ultimi anni ha sformato così poco invitanti architetture che nessuno ha sentito la mancanza dei 14nm anche quando sono arrivati un anno dopo il previsto. Nessuno si è precipitato a cambiare il PC perché le vecchie soluzioni erano obsolete e quei mesi di ritardo li avevano resi ancora più obsoleti.
Se così fosse non si spiegherebbe il continuo sold-out di Skylake, che ha comportato un aumento del prezzo di listino.

Se la domanda supera l'offerta, vuol dire che il produttore non riesce a sfornare abbastanza pezzi. Ergo: ha problemi di produzione. E siccome gli Skylake sono prodotti a 14nm, si fa presto a capire la causa di tutto.

Come, peraltro, è capitato anche alle altre fonderie: non ce n'è una che non abbia avuto o abbia ancora problemi. TSMC ha addirittura saltato i 14nm...
Cosa che invece, se fai un raffronto, non capita con i SoC ARM che per ora godono ancora della legge di Moore e ad ogni generazione permettono di avere sistemi nettamente più potenti dei precedenti (non chiedermi a cosa servano, ma la gente li vuole).
O con le GPU: vedremo se all'uscita delle nuove architetture realizzate con 16nm di TMSC (dopo un ritardo di 2 anni di un nuovo PP per cancellazione dei 20nm) gli utenti faranno come con le CPU Intel, ovvero acquisteranno solo quando il PC gli si rompe o se vi sarà la corsa come quando arrivarono quelle a 28nm.
Perdonami, ma c'era gente in questo forum che affermava che i nuovi processi produttivi erano troppo costosi e meno convenienti rispetto a quelli vecchi.

Adesso si scopre che la legge di Moore galoppa per la concorrenza che sforna ARM.

C'è qualcosa che non quadra...

cdimauro
20-01-2016, 22:20
solo negli anni 40 dello scorso secolo si è potuto mettere mano e quindi controllare la materia a livello nucleare, negli ultimi 20, invece stiamo studiando la fisica subnucleare teorizzata 50 anni fa, anche se riusciamo a generare particelle subatomiche, ancora non siamo in grado di controllarle. In questo campo ancora niente è certo, solo pochi anni fa fu dimostrata l'esistenza del Bosone di Higgs ma ancora non lo si è fatto per il gravitone (la particella responsabile della trasmissione della forza di gravita in un sistema quantistico) se si dovesse scoprire la sua non esistenza si dovrebbe ricominciare tutto da capo. Ora sappiamo come sono formate le particelle subatomiche, sostanzialmente da quark, quark che hanno caratteristiche differenti, possono essere con carica positiva o con carica negativa, ma come giustamente dice qualcuno da cosa è causata questa carica? Cioè sappiamo che la carica di un protone è positiva perché la i quark di cui fa parte (2 up e uno down) la rendono con carica positiva, ma perché i quark possono essere con carica positiva o negativa non lo sa nessuno, è probabile che esistano delle sub-subparticelle. Un Quark ha una dimensione di 10^-18, 10 miliardi di volte più piccolo di un transistor prodotto oggi. Creare un "Quarkistor" per esempio delle porte NAND con un insieme di quark, significa diminuire di ben 4 ordini di grandezza le dimensioni dei SOC.
E stando al limiti teorizzato attualmente dalla fisica esso è di 10^-35, migliardi di migliardi di volte più piccolo di un Quark. Ce ne sta ancora a miniaturizzare...
Scusami, ma questo ragionamento assume che non ci saranno problemi di nessun tipo nel processo di miniaturizzazione.

Vorrei ricordarti che più si scende nella dimensione di un transistor, più diventa rilevante il famigerato effetto tunnel. Si arriverà al punto in cui la migrazione di elettroni renderà impossibile realizzare il transistor, che deve potersi comportare da isolante per poter funzionare.

E questo senza tenere conto del fatto che, sì, noi riusciamo attualmente a produrre particelle elementari, ma sono in acceleratori di particelle che impiegano energie ENORMI per far scontrare giusto qualche atomo alla volta.

Per cui rimango LEGGERMENTE scettico che si possa miniaturizzare fino a livello dei quark.

Personaggio
21-01-2016, 17:35
Scusami, ma questo ragionamento assume che non ci saranno problemi di nessun tipo nel processo di miniaturizzazione.

Vorrei ricordarti che più si scende nella dimensione di un transistor, più diventa rilevante il famigerato effetto tunnel. Si arriverà al punto in cui la migrazione di elettroni renderà impossibile realizzare il transistor, che deve potersi comportare da isolante per poter funzionare.

E questo senza tenere conto del fatto che, sì, noi riusciamo attualmente a produrre particelle elementari, ma sono in acceleratori di particelle che impiegano energie ENORMI per far scontrare giusto qualche atomo alla volta.

Per cui rimango LEGGERMENTE scettico che si possa miniaturizzare fino a livello dei quark.

Chi ha detto che bisogna usare elettroni? mi sono infatti inventato il nome "Quarksistor" perché non sarebbe un transistor, ma qualcos'altro. Ed il fatto che sia possibile, dal mio punto di vista, non significa che lo si farà in pochi anni, dico solo che quanto sappiamo oggi della fisica ci dice che c'è qualcosa che si potrebbe sfruttare sotto il limite dell'atomo, quando e come è tutto da vedere.

Zenida
21-01-2016, 21:28
Chi ha detto che bisogna usare elettroni? mi sono infatti inventato il nome "Quarksistor" perché non sarebbe un transistor, ma qualcos'altro. Ed il fatto che sia possibile, dal mio punto di vista, non significa che lo si farà in pochi anni, dico solo che quanto sappiamo oggi della fisica ci dice che c'è qualcosa che si potrebbe sfruttare sotto il limite dell'atomo, quando e come è tutto da vedere.

Effettivamente è questo che ci blocca a pensare scale minori. Condivido il discorso secondo cui non sarà necessaria la miniaturizzazione per l'aumento di potenza (con tanti saluti alla legge di Moore), ma condivido anche l'idea di un sistema fisico alternativo su scale inferiori per la realizzazione di calcolatori.

Quello che ci serve a noi è ON e OFF (sempre se vogliamo restare ancorati a questo concetto o vogliamo stravolgere persino questo?!). E se con un "quarksistor" sarà possibile ottenere questo stato di 1 o 0 (senza necessariamente chiamare in causa gli elettroni), allora il limite fisico sarà superato.

Poi per carità, qui stiamo solo fantasticando, perchè se freniamo l'immaginazione allora come si fa ad innovare? Bisogna ragionare fuori dagli schemi in questi casi. È vero che ad oggi serve un acceleratore di particelle per far scontrare qualche atomo ed il tutto solo per osservare una sub particella senza possibilità di controllo.
Ma 100 anni fa un PC occupava un intero stanzone, ma aveva meno potenza della mia calcolatrice, consumava un fottio e impiegava 15 minuti a fare un prodotto tra fattori a 2 cifre (è un eufemismo sia chiaro :sofico: )

cdimauro
21-01-2016, 23:02
Infatti si parla sempre di fantasia: che il quarksistor sia possibile è un assunto privo di fondamento. E faccio notare che un elettrone è un quark.

Poi che i PC un tempo occupava una stanza, mentre oggi si possano impacchettare in un pennino USB (con relativi, scarsi, consumi richiesti) non vuol dire che si possa fare lo stesso con un acceleratore di particelle (per lo meno non nella misura in cui potrebbe essere alla casalinga di Voghera per il suo nuovo PC a quarksistor).

Infatti è una ben nota fallacia logica, visto che i due argomenti non sono correlati.

E' come dire che siccome dall'invenzione del transistor la sua velocità è aumentata di un miliardo di volte, allora dovrebbe essere possibile viaggiare in auto un miliardo di volte più velocemente di quanto non lo facevano le prime automobili. Ma è passato più tempo da quando è stata inventata l'automobile, che da quando lo è stato il transistor, e le velocità della prima sono aumentata di gran lunga meno.

Preciso che non ho dubbi che la scienza continuerà a fare progressi. Ma da qui ad avere confidenza che si riusciranno a risolvere problematiche come quelle oggetto della questione, è tutto un altro paio di maniche.

calabar
22-01-2016, 18:00
E faccio notare che un elettrone è un quark.
Sono ricordi di Liceo (forse), ma mi pareva che gli elettroni fossero (o fossero composti da) leptoni, non quark.
Vabbè, è passato abbastanza tempo da avere le idee un po' confuse a riguardo! :D

cdimauro
22-01-2016, 20:22
Hai ragione: è una particella elementare, ma non un quark.