CPU e schede video, prezzi ancora più alti in futuro? I 3 nanometri di TSMC costosissimi

CPU e schede video, prezzi ancora più alti in futuro? I 3 nanometri di TSMC costosissimi

Secondo il DigiTimes il prezzo dei wafer a 3 nanometri di TSMC è destinato a toccare e superare i 20.000 dollari, segnando quindi un rincaro del 25% su quanto richiesto per la produzione a 5 nanometri. Un aumento che toccherà da vicino produttori di CPU e GPU.

di pubblicata il , alle 10:31 nel canale Processori
NVIDIAGeForceAMDRadeonRyzenEPYCIntelCoreTSMCThreadripper
 

Se pensate che le CPU e le GPU di oggi siano estremamente costose, allora tenetevi forte: al peggio non c'è mai fine. Questo è almeno quello che preannuncia il taiwanese DigiTimes, secondo il quale il costo dei wafer di semiconduttori a 3 nanometri di TSMC raggiungerà vette superiori rispetto a quelle odierne.

A causa della posizione dominante nella produzione per conto terzi, unitamente alla scarsa concorrenza sui 3 nanometri (c'è Samsung, ma a quanto pare non desta preoccupazioni), TSMC avrebbe intenzione di tenere prezzi elevati per la produzione con il nuovo processo produttivo.

Nel grafico si può vedere l'evoluzione dei listini praticati da TSMC, con il passaggio dai 10.000 dollari per la produzione a 7 nanometri ai 16.000 dollari per quella a 5 nanometri. Un balzo del 60%, non certo interamente assorbibile da chi deve puntare ai processi più avanzati, come AMD e NVIDIA, per rimanere competitivo. Con i 3 nanometri il dato potrebbe toccare e superare i 20.000 dollari, facendo quindi segnare un altro balzo in avanti del 25%, più modesto ma comunque importante a fronte della situazione attuale.

Certo, è necessario ricordare che in genere i clienti principali di TSMC, quelli che fanno ordini molto elevati, hanno la possibilità di contrattare i prezzi e spendere meno in fase produttiva rispetto a tutti gli altri clienti, ma davanti a un rincaro di base i prezzi dei prodotti finali non potranno che salire.

Qualche settimana fa il CEO di NVIDIA, in merito ai prezzi delle schede video GeForce RTX 4090 e 4080, diceva di ritenere i listini giustificati alla luce dei costi produttivi attuali. "Un wafer di silicio da 12 pollici è molto più costoso oggi di quanto lo fosse ieri, e non è solo poco più costoso, è molto più costoso".

"La Legge di Moore è morta. E l'abilità della Legge di Moore di fornire il doppio delle prestazioni allo stesso costo, o le stesse prestazioni a metà del costo, ogni anno e mezzo, è finita. È completamente finita, quindi l'idea che un chip diminuirà di costo nel tempo, sfortunatamente, è una storia del passato. Il calcolo non è un problema di chip, è un problema di chip e software".

La strada per mantenere i prodotti su livelli di prezzo non troppo esagerati è quella che sta seguendo AMD, che intraprenderà Intel e che sarà imboccata presto o tardi anche da NVIDIA: realizzare chip con die prodotti con processi differenti, uniti insieme sullo stesso package con interconnessioni ad alta velocità. Le nuove Radeon RX 7900 ne sono un esempio, con l'uso di processi a 5 e 6 nanometri per dare forma alla GPU Navi 31.

Anche così, però, chi si aspettava il ritorno delle schede video top di gamma su listini intorno a 700-800 euro nei prossimi anni difficilmente verrà accontentato.

29 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Saturn22 Novembre 2022, 10:32 #1
Aumenteranno così tanto che non le comprerà più nessuno.
nessuno2922 Novembre 2022, 10:51 #2
Si ma su 3 nanometri quanti chip a wafer ci escono?
Cromwell22 Novembre 2022, 11:00 #3
"Sempre più in altoooo!!!" (cit.)

Ripper8922 Novembre 2022, 11:15 #4
Originariamente inviato da: nessuno29
Si ma su 3 nanometri quanti chip a wafer ci escono?

Circa lo stesso numero, generalmente ad ogni nuova miniaturizzazione i produttori ne approfittano per infoltire i nuovi chips in modo da avere più transistors a parità di dimensione del die rispetto al prodotto precedente.

Penso sarebbe il caso di cominciare a semplificare i chips rimuovendo le componenti che non sono indispensabili, come la GPU integrata.
E adottare una miniaturizzazione localizzata solo sulle componenti importanti, come già fa AMD grazie alla tecnologia chiplet ma in modo ancora più aggressivo.
BadBoy8022 Novembre 2022, 11:16 #5
Originariamente inviato da: nessuno29
Si ma su 3 nanometri quanti chip a wafer ci escono?


Sempre gli stessi delle precedenti produzioni. Si aumenta la densità di transistor per chip, non il numero di chips per wafer..
Poty...22 Novembre 2022, 11:20 #6
mha per quanto questa cosa sia vera, è altrettanto vera che produci più chip a parità di wafer... humm spet forse non è più vera sta cosa visto che invece di fare passi piccoli in prestazioni e magari fare chip più piccoli e più potenti dei precedenti (anche solo di un 10%) si sta sfruttando il processo produttivo migliore per fare mega chipponi super potenti tirati fino all'ultimo mhz! amd ha fatto la mossa migliore e forse potrebbe essere uno scacco non indifferente tra qualche anno. sta di fatto che in ambito gaming non era necessario spingersi così in la con le Performance's sono sicuro che se facessi un sondaggio, in cui dico: preferiresti le Performance's della 3080ti ma con 100w in meno e un costo di 400€ o una mega vga potente il doppio di una 3090 ma a 2000€? sono sicuro che vincerebbe la prima opzione. le mega schede ci stanno per l'ambito pro ma oggi, in gaming il merketing sta spingendo verso una strada che l'hardware non è pronto a intraprendere se non con costi altissimi e consumi altrettanto alti! o prenderei subito na vga che va come una 3080ti con 16 gb di ram ma con consumi di 100w in meno a massimo 500€...
nessuno2922 Novembre 2022, 11:32 #7
Si ok che si aumenta la densità, ma stampando un chip più piccolo fisicamente escono più chip. Da un wafer escono più rtx 4080 (379mm2) che 3080 (628mm2) stampati a densità differenti.
BadBoy8022 Novembre 2022, 11:36 #8
Il problema è un altro: si sta spingendo tantissimo per la semplice e "grezza" forza bruta, invece di ottimizzare la parte software. Se ottimizzassero il sw come si deve, non avremmo bisogno di tutta questa potenza computazionale!!
sbaffo22 Novembre 2022, 11:41 #9
mah, mi sembra una scusa:
dal 2004 in cui inizia la serie ci sono stati incrementi ben maggiori del 60% e del 25%, da 28nm a 10nm è raddoppiato (+100%) e la volta dopo da 10nm a 7nm +67%, eppure in quei periodi 2014-2016-2018 i prezzi finali delle non sono aumentati molto (almeno per le cpu), perchè? (in realtà con +60% e +25% gli incrementi di prezzo hanno rallentato rispetto a prima)
poi invece dopo il 2020 con la crisi dei chip sono schizzati tutti i prezzi, ma il costo non c'entrava nulla, e anche ora è solo una scusa per non tornare ad abbassare i prezzi.
Come alluvioni e terremoti per le memorie...

Originariamente inviato da: nessuno29
Si ma su 3 nanometri quanti chip a wafer ci escono?

5x5=25
3x3=9
25/9=2.77 cioè ci stanno quasi il triplo dei transistor nella stessa superfice/wafer.
Se i chip non triplicano i transistor ce ne stanno molti di più, in proporzione ai transistor ovviamente:
se si facesse solo un die shrink mantenendo invariati i transistor uscirebbero 2.77 volte più chip, ed essendo l'aumento di prezzo del 25% minimo rispetto alla resa, verrebbe a costare -55% circa (1.25/2.77=0.45). A parità di prezzo invece dovrebbe avere 2.2x i transitor (1/0.45).
Quindi sono tutte b@lle!
Originariamente inviato da: nessuno29
Si ok che si aumenta la densità, ma stampando un chip più piccolo fisicamente escono più chip. Da un wafer escono più rtx 4080 (379mm2) che 3080 (628mm2) stampati a densità differenti.

esatto, CVD (come volevasi dimostrare)!
Ripper8922 Novembre 2022, 11:48 #10
Originariamente inviato da: BadBoy80
Il problema è un altro: si sta spingendo tantissimo per la semplice e "grezza" forza bruta, invece di ottimizzare la parte software. Se ottimizzassero il sw come si deve, non avremmo bisogno di tutta questa potenza computazionale!!
Penso ci siano i presupposti per compensare.

Si può cominciare a semplificare le architetture come ad esempio la rimozione delle componenti che non sono indispensabili, ad esempio la GPU integrata. Oppure l'uso dei processi più costosi solo sulle componenti importanti.

AMD con la sua architettura chiplet ad esempio ha i moduli con i cores a 5nm ma quello I/O a 6nm, penso che questo si possa estremizzare di più.
E magari anche a trovare soluzioni più affini a ridurre i costi generali, come l'integrazione della HMB in cambio di una riduzione della cache L3.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^