View Full Version : Dai 7nm ai 5nm: questi i piani di TSMC per il 2020
Redazione di Hardware Upg
25-01-2019, 11:41
Link alla notizia: https://www.hwupgrade.it/news/cpu/dai-7nm-ai-5nm-questi-i-piani-di-tsmc-per-il-2020_80362.html
L'azienda taiwanese, impegnata nella produzione di chip per vari clienti, affianca la tecnologia a 7 nanometri con le prime sperimentazioni con quella a 5 nanometri, basata su litografia EUV
Click sul link per visualizzare la notizia.
Anche questa corsa alla miniaturizzazzione sta arrivando alla fine della sua curva ad "S".
Una volta si passava da 110 ai 60 ai 45Nm... Domani si passerà da 7 a 5, anche se i numeri ingannano (passare da 7 a 5 è comunque poco meno del 30% più piccolo) limiti tecnologici e dei materiali (e relativi costi) finiranno per rendere antieconomico scendere oltre con i PP.
Sarebbe ora di riservare al software tutte queste risorse, perchè se devo spendere 20 miliardi di dollari per passare una FAB dai 7 ai 5 nm per avere un +20% nelle prestazioni, non potrei sfruttare quei 20 Mld ottimizzando Linux/android e compilatori?
Io credo che si guadagnerebbe ben più del 20% con 20 Mld di dollari, infatti con tale cifra potremmo pagare 10k sviluppatori software per 50 anni, o 100k per 5 anni (ho calcolato 40k Dollari costo annuo tra stipendio e logistica, e per gli sviluppatori indiani/cinesi sono un mucchio di soldi).
E dell'ottimizzazione software beneficerebbe tutto l'hardware, anche il preesistente, meno reinstallazioni nei datacenter, meno inquinamento......ma..... CAVOLO, NON CI PENSAVO, e poi come ti costringono a ricomprare cellulare o PC o console ogni 1-3 anni, se ottengono le stesse prestazioni migliorando il software ogni 1-3 anni????
Ok, prima ho detto la ca...ata del secolo, vada per i 5 nanometri e presto anche i 4 e 3 :______(
nickname88
25-01-2019, 12:15
Si queste affermazioni le abbiamo già sentite, è da quando ero bambino, ossia oltre 20 anni che ogni giorno la legge di Moore muore domani, pensa che Samsung sta realizzando una fabbrica per un PP a 3nm.
Purtroppo questo fa ancora capire quanto l'uomo tenga poco al pianeta su cui vive.
In fondo se proprio devo pagare per avere più prestazioni, forse preferirei pagare un aggiornamento software che mi garantisce +20% in prestazioni, che la stessa cifra per cambiare PC e avere sempre un +20% prestazioni.
Ovvio non sempre è fattibile, ma tra software gratis e hardware a pagamento, preferirei l'opposto per non distruggere le poche risorse che ci sono rimaste su questo pianeta.
Purtroppo questo fa ancora capire quanto l'uomo tenga poco al pianeta su cui vive.
In fondo se proprio devo pagare per avere più prestazioni, forse preferirei pagare un aggiornamento software che mi garantisce +20% in prestazioni, che la stessa cifra per cambiare PC e avere sempre un +20% prestazioni.
Ovvio non sempre è fattibile, ma tra software gratis e hardware a pagamento, preferirei l'opposto per non distruggere le poche risorse che ci sono rimaste su questo pianeta.
Finchè avremo questo sistema economico, non potrai aspettarti che il software venga ottimizzato in modo che non consumatori non dobbiamo aggiornare l'hardware.
Sarà sempre esattamente il contrario, il software DEVE essere sempre più pesante per spingere il ricambio dell'hardware e mandare avanti il mercato.
nickname88
25-01-2019, 12:33
Non mi sembra affatto che la maggior fonte di inquinamento nel mondo sia la reinstallazione dei datacenter o provenga dalle sole fabbriche che producono chips.
Per ottimizzare il software servono i soldi e l'ottimizzazione ha un limite e una volta ottimizzato il software hai un incremento iniziale che rimanderebbe le necessità di una generazione forse ( stallando però il mercato ) ma poi finisce lì e ricomincia la necessità di maggior potenza di calcolo.
E questa mossa in un mondo capitalista non è nemmeno considerabile, al primo posto ci sono i soldi.
Quindi la miniaturizzazione deve sempre andare avanti, e se il silicio non basta si usano altre alternative e se costano di più vorrà dire che le pagheremo di più.
Anche questa corsa alla miniaturizzazzione sta arrivando alla fine della sua curva ad "S".
Una volta si passava da 110 ai 60 ai 45Nm... Domani si passerà da 7 a 5, anche se i numeri ingannano (passare da 7 a 5 è comunque poco meno del 30% più piccolo) limiti tecnologici e dei materiali (e relativi costi) finiranno per rendere antieconomico scendere oltre con i PP.
Sarebbe ora di riservare al software tutte queste risorse, perchè se devo spendere 20 miliardi di dollari per passare una FAB dai 7 ai 5 nm per avere un +20% nelle prestazioni, non potrei sfruttare quei 20 Mld ottimizzando Linux/android e compilatori?
Io credo che si guadagnerebbe ben più del 20% con 20 Mld di dollari, infatti con tale cifra potremmo pagare 10k sviluppatori software per 50 anni, o 100k per 5 anni (ho calcolato 40k Dollari costo annuo tra stipendio e logistica, e per gli sviluppatori indiani/cinesi sono un mucchio di soldi).
E dell'ottimizzazione software beneficerebbe tutto l'hardware, anche il preesistente, meno reinstallazioni nei datacenter, meno inquinamento......ma..... CAVOLO, NON CI PENSAVO, e poi come ti costringono a ricomprare cellulare o PC o console ogni 1-3 anni, se ottengono le stesse prestazioni migliorando il software ogni 1-3 anni????
Ok, prima ho detto la ca...ata del secolo, vada per i 5 nanometri e presto anche i 4 e 3 :______(TSMC è una foundry con 50.000 dipendenti, non una società che sviluppa software.
Dovrebbe forse chiudere o smettere di investire sul proprio futuro?
Il tuo discorso diventa ancora più ridicolo se si considera quanto siano significativi i progressi litografici in termini di densità, performance e risparmio energetico.
Sono elementi assolutamente determinanti per il futuro, che passa da supercomputer più performanti ed efficienti, hardware con performance superiore di ordini di grandezza e con consumi inferiori ad oggi e tutta l'infrastruttura necessaria per far funzionare neural network in grado di risolvere problemi di chimica, fisica, di aiutare nello sviluppo dei farmaci, nell'imaging radiografico, nel campo ingegneristico, ecc ecc.
Prova a fare training di un neural network moderno con un pentium 4. Vediamo cosa riescono a fare 50k sviluppatori software a riguardo.
Di fianco alla fab dei 5nm, TSMC ha già programmato la costruzione, nel 2020/2021, di una nuova fab per i 3nm, per essere operativi nel 2023.
Spesa prevista: l'equivalente di 19 miliardi di $.
Quindi diciamo che fino al 2025 i piani sono ben delineati, poi chissà quali tra le attuali tecnologie sperimentali, decideranno di adottare su larga scala.
forse è il momento di cominciare a ragionare in picometri! pensare di passare da 7000pm a 5000pm fa un altro effetto!:)
paolodekki
25-01-2019, 13:57
forse è il momento di cominciare a ragionare in picometri! pensare di passare da 7000pm a 5000pm fa un altro effetto!:)
Giusta osservazione! Semplice ma efficace. Forse non i picometri ma una via di mezzo tipo angstrom (si dice così? boh ho visto su Wikipedia XD) e quindi da 700am a 500am giusto per non aumentare troppo visivamente le cifre. Sicuro questo passaggio ci sarà dopo i 3nm dove il passaggio successivo potrebbe essere 2,2nm oppure 220am
Tedturb0
25-01-2019, 15:29
nel frattempo intel completa i 10nm :asd:
cdimauro
26-01-2019, 07:10
TSMC è una foundry con 50.000 dipendenti, non una società che sviluppa software.
Dovrebbe forse chiudere o smettere di investire sul proprio futuro?
Il tuo discorso diventa ancora più ridicolo se si considera quanto siano significativi i progressi litografici in termini di densità, performance e risparmio energetico.
Sono elementi assolutamente determinanti per il futuro, che passa da supercomputer più performanti ed efficienti, hardware con performance superiore di ordini di grandezza e con consumi inferiori ad oggi e tutta l'infrastruttura necessaria per far funzionare neural network in grado di risolvere problemi di chimica, fisica, di aiutare nello sviluppo dei farmaci, nell'imaging radiografico, nel campo ingegneristico, ecc ecc.
Prova a fare training di un neural network moderno con un pentium 4. Vediamo cosa riescono a fare 50k sviluppatori software a riguardo.
This. E' proprio la maniaturizzazione dei transistor che ha contribuito enormemente al progresso della nostra civiltà.
I benefici dovuti all'ottimizzazione del software, SE E QUANDO POSSIBILE, non sono minimamente confrontabili con quelli di cui abbiamo goduto ogni 18-24 mesi (raddoppio del numero dei transistor impacchettati nella stessa area di silicio).
Giusta osservazione! Semplice ma efficace. Forse non i picometri ma una via di mezzo tipo angstrom (si dice così? boh ho visto su Wikipedia XD) e quindi da 700am a 500am giusto per non aumentare troppo visivamente le cifre. Sicuro questo passaggio ci sarà dopo i 3nm dove il passaggio successivo potrebbe essere 2,2nm oppure 220am
"am" e' un attometro.
Io passerei alla lunghezza di Planck.
;)
micropunta
26-01-2019, 14:48
Anche questa corsa alla miniaturizzazzione sta arrivando alla fine della sua curva ad "S".
Una volta si passava da 110 ai 60 ai 45Nm... Domani si passerà da 7 a 5, anche se i numeri ingannano (passare da 7 a 5 è comunque poco meno del 30% più piccolo) limiti tecnologici e dei materiali (e relativi costi) finiranno per rendere antieconomico scendere oltre con i PP.
Sarebbe ora di riservare al software tutte queste risorse, perchè se devo spendere 20 miliardi di dollari per passare una FAB dai 7 ai 5 nm per avere un +20% nelle prestazioni, non potrei sfruttare quei 20 Mld ottimizzando Linux/android e compilatori?
Io credo che si guadagnerebbe ben più del 20% con 20 Mld di dollari, infatti con tale cifra potremmo pagare 10k sviluppatori software per 50 anni, o 100k per 5 anni (ho calcolato 40k Dollari costo annuo tra stipendio e logistica, e per gli sviluppatori indiani/cinesi sono un mucchio di soldi).
E dell'ottimizzazione software beneficerebbe tutto l'hardware, anche il preesistente, meno reinstallazioni nei datacenter, meno inquinamento......ma..... CAVOLO, NON CI PENSAVO, e poi come ti costringono a ricomprare cellulare o PC o console ogni 1-3 anni, se ottengono le stesse prestazioni migliorando il software ogni 1-3 anni????
Ok, prima ho detto la ca...ata del secolo, vada per i 5 nanometri e presto anche i 4 e 3 :______(
Condordo al 100% con quello che hai scritto.
E nel mio piccolo aggiungo anche un'altra cosa, perchè fare sempre CPU e GPU fornetti ? Non ci si potrebbe fermare un paio di step ? Ho in cantiere una nuova architettura ? Bene, aspetterò fino a che il PP, non mi consenta di usare una dissipazione passiva, e quindi nel frattempo lavoro sull'ottimizzazione del software.
cdimauro
26-01-2019, 15:41
Eccone un altro. E niente, l'università di internet continua a sfornare tuttologi...
tuttodigitale
26-01-2019, 23:32
Si queste affermazioni le abbiamo già sentite, è da quando ero bambino, ossia oltre 20 anni che ogni giorno la legge di Moore muore domani, pensa che Samsung sta realizzando una fabbrica per un PP a 3nm.
la "legge" di Moore è morta da un pezzo.
7-5nm hanno perso qualsiasivoglia riferimento fisico.....
Inoltre i 7 nm non sono 4 volte più densi dei 14nm, e i 5nm non saranno il doppio più densi dei 7nm e i 3nm non saranno oltre 5 volte più densi dei 7nm....è impensabile che il numero dei transistor possa raddoppiare ogni 2 anni visto anche l'aumento dei costi per singolo wafer...
Credo che l'approccio usato da AMD per ZEN2 mette in risalto 2 cose:
la prima, che ci vuole molto tempo per avere un processo maturo a sufficienza.
la seconda, che i progettisti vogliono il più possibile trarre i vantaggi che solo processi di ultimissima generazione possono offrire.
cdimauro
27-01-2019, 05:29
Assolutamente d'accordo. La pacchia è finita (cit.), e non per modo di dire, ma con pieno fondamento. Le fonderie stanno soffrendo enormemente a introdurre i nuovi processi produttivi (e qui non mi riferisco ai tipici "lifting"/affinamenti dei processi esistenti. Che comunque sono diventati obbligatori, visti i problemi), e i costi dell'aggiornamento sono diventati enormi.
Ed è un'impresa ottenere buone rese. Intel ne sa qualcosa coi suoi 10nm: ben TRE anni di ritardo! Ma, come giustamente hai fatto notare, non sono rose e fiori nemmeno per le altre fonderie: se i "7nm" (che non sono realmente tali: sostanzialmente equivalenti a ai 10nm di Intel) fossero stati maturi (e convenienti), AMD non avrebbe deciso la strategia dei due chiplet a 7 e 14nm.
D'altra parte è un chiaro segnale che ci stiamo avvicinando ai limiti fisici nella realizzazione dei transistor (tradizionali: ci si dovrà inventare qualcos'altro dopo). Ci sarà spazio ancora per un paio o tre nuovi processi produttivi, e poi amen: per la "legge" di Moore si potrà celebrare il funerale (chissà se il buon Gordon, che ormai è molto avanti con l'età, riuscirà a vederne la fine).
settembre 2016 Apple A10, 125mmq, 3300 milioni di transistor ovvero 26 milioni di transistor per mm quadrato.
settembre 2018 Apple A12, 84 mmq, 6900 milioni di transistor ovvero 78 milioni di transistor per mm quadrato.
ora non so se Moore è morto ma per me triplicare la densita in 2 anni non è un brutto risultato.
nickname88
27-01-2019, 09:17
la "legge" di Moore è morta da un pezzo.
7-5nm hanno perso qualsiasivoglia riferimento fisico.....
Inoltre i 7 nm non sono 4 volte più densi dei 14nm, e i 5nm non saranno il doppio più densi dei 7nm e i 3nm non saranno oltre 5 volte più densi dei 7nm....è impensabile che il numero dei transistor possa raddoppiare ogni 2 anni visto anche l'aumento dei costi per singolo wafer...
Credo che l'approccio usato da AMD per ZEN2 mette in risalto 2 cose:
la prima, che ci vuole molto tempo per avere un processo maturo a sufficienza.
la seconda, che i progettisti vogliono il più possibile trarre i vantaggi che solo processi di ultimissima generazione possono offrire.
La legge di Moore fisicamente parlando è ancora in piedi, è morta solo come modello di business e non su tutti i prodotti.
Che i transistors non raddoppino ogni modello è solo per volontà dei produttori per recuperare di costi sempre più alti di ogni PP.
7nm non è quattro volte più denso dei 14, ma è sufficiente che lo sia almeno il doppio.
E così i prossimi 5nm rispetto ai prossimi 7 ed i futuri 3nm rispetto ai 5.
Per altri due step dopo il prossimo teoricamente sarà possibile.
Poi arriverà un altro PP limite.
micropunta
27-01-2019, 09:37
Eccone un altro. E niente, l'università di internet continua a sfornare tuttologi...
L'arroganza te la posso anche concedere, ma mi piacerebbe anche una motivazione
L'arroganza te la posso anche concedere, ma mi piacerebbe anche una motivazione
Non credo ci sia nemmeno bisogno di spiegazioni, comunque:
1 dissipazione passiva per processori ad alte prestazioni è semplicemente impossibile perché:
- o si rinuncia a parte delle prestazioni riducendo il clock e quindi il consumo
- o si prendono le prestazioni massime, ma il consumo sale e non puoi dissipare passivamente
2 è praticamente impossibile ottimizzare il software all'infinito soprattutto sperando di poter raddoppiare le prestazioni.....
Alla fine il software è solo una sequenza di operazioni semplici, oltre un certo livello è impossibile ottimizzare, per fare 1+1 più velocemente puoi solo aumentare le capacità di calcolo del processore, mica puoi ottimizzare l'operazione.
cdimauro
27-01-2019, 18:23
Esattamente. Quanto alla legge di Moore, non è ancora morta (come dicevo prima), ma è senz'altro moribonda.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.