Fame di 'Fab': il fondatore di TSMC rivela la pazza richiesta dei clienti
Il fondatore di TSMC, Morris Chang, ha dichiarato che i clienti non richiedono un semplice incremento della capacità produttiva, ma la costruzione di moltissimi nuovi impianti produttivi (Fab) per coprire una domanda di chip per l'IA che si prospetta senza precedenti.
di Manolo De Agostini pubblicata il 28 Febbraio 2024, alle 20:11 nel canale ProcessoriTSMC
Morris Chang, fondatore di TSMC, ha dichiarato che i clienti che progettano chip dedicati all'intelligenza artificiale hanno una fame produttiva insaziabile, tanto da richiedere al colosso taiwanese la costruzione di ben 10 nuove Fab (impianti produttivi) per coprire la domanda.
L'incapacità della filiera produttiva dei semiconduttori di soddisfare rapidamente le necessità delle società che progettano i chip per l'IA, e a cascata dei propri clienti, è ormai cosa ben nota.
NVIDIA, leader del settore, fatica a soddisfare le richieste (secondo alcuni sfruttando questa carta a proprio vantaggio) con spedizioni che fino a poco tempo fa avevano tempi di attesa di 8-11 mesi e che, solo recentemente, sarebbero scese a 3-4 mesi - comunque non pochi. Il problema non è tanto la produzione delle GPU, quanto la fase di packaging avanzata, cioè la "fusione" della GPU con la memoria HBM e tutto il resto.
Nelle scorse settimane si è parlato del piano "monstre" di Sam Altman di OpenAI per reperire fondi senza precedenti per costruire nuove Fab. Ebbene, se forse la cifra tra 5 e 7 trilioni di dollari trapelata è insensata (benché diffusa dall'autorevole WSJ), la domanda del settore è comunque fuori scala.
"Non si tratta di decine di migliaia di wafer", ha detto Morris Chang, come riporta il quotidiano locale Nikkei. "Stanno parlando di Fab e ci dicono 'Abbiamo bisogno di tante Fab. Abbiamo bisogno di tre, cinque, 10 Fab' Beh, non riesco quasi a crederci". Chang prevede che la domanda di chip per l'IA si collocherà nel mezzo, "tra decine di migliaia di wafer e decine di Fab".
TSMC, secondo il fondatore Morris Chang la globalizzazione è 'quasi morta'
Costruire una Fab è un investimento di svariati miliardi di dollari, figurarsi realizzarne una decina: potrebbe richiedere un impegno di centinaia di miliardi di dollari. TSMC, per il 2024, prevede di investire nella capacità produttiva tra 28 e 32 miliardi dollari, quindi si parla di cifre fuori portata anche per società dalle tasche profonde.
La sensazione è che, piano ambizioso di Sam Altman a parte, la produzione non coprirà la domanda per molto tempo, in una continua rincorsa tra incrementi ponderati e costanti di capacità produttiva e richiesta in aumento.
D'altronde i clienti che progettano chip per l'IA non solo richiedono una produzione elevata, ma anche processi produttivi sempre più avanzati che necessitano di anni per restituire un ritorno dall'investimento.
TSMC, Intel e Samsung possono impegnarsi, ma fino a un certo, nell'avanzare la produzione tanto quantitativamente quanto qualitativamente, ma non nei tempi e modi richiesti. Che si vada verso una condivisione degli investimenti con i clienti (NVIDIA, AMD, ecc.)?
8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infomiii... il nuovo Nostradaums!
preciso come un cieco che gioca a freccette...
Io ne ho prese 2 che mi servono, se tra un po' le potro' rivendere a 3 o 4 volte tanto ci penso e rimetto le precedenti. HAHAHA.
Fino a quando non usciranno le NPU nei processori Intel, le GPU domineranno e saranno super richieste in tutto e da tutti, dal mio punto di vista e' temporaneo, ma sara' peggio del mining, perche' l'IA da riscontro di funzionalita' continuamente ed a tutti quelli che la usano. (ed Nvidia ha gia' alzato le mani con lo shortage)
anche se quel che mi fa piu inca are è che -sicuramente- parliamo di una nuova era informatica, ma almeno almeno 50% è pura speculazione questa: che sia pura speculazione monetaria o solo speculazione di rimbalzo, cioè fuffa (quanti stanno pubblicizzando prodotti informatici con AI integrata? non funzia perfettamente quella fatta da chi l'ha inventata e loro l'hanno già integrata nell' ERP, gestionali e quant'altro ) poco cambia
le cifre messe in avanti per conquistare questa prateria vergine sono impressionanti ed impossibile che siano veritieri indici di un valore aggiunto da questi sistemi
uguale
E' da inizio mese che tutti parlano di queste cose. Tutti alla ricerca di 7000 miliardi (non é un numero a caso cercate con google) di dollari per aumentare la produzione dei chip AI. Li cerca altman (OpenAI), li cerca NVidia, ora li cerca anche TSMC.1)
Le attuali "AI" basate su LLM tendono intrinsecamente ad allucinare e se si guarda a COME vengono usate nella realtà, il grosso del business è legato a scam & spam che sfugge all'attenzione del grande pubblico ma che sta già facendo danni seri.
Il motivo principale è che per spammare o scammare non servono risultati precisi ed esatti, serve solo un gran volume di contenuti focalizzati sull'obiettivo, NON IMPORTA se veri o falsi.
Per questo mentre gli sviluppi "seri" vanno avanti speditamente, gli usi "discutibili" hanno giù inserito il turbo e sono quelli che generano più richiesta di potenza computazionale.
Per qualche spunto su cosa sta succedendo, consiglio di dare un occhiata a questo articolo che riassume bene cosa sta succedendo:
Here lies the internet, murdered by generative AI
E la cosa non va a toccare "solo" i contenuti su internet, ma finisce col fare danni a cascata in modi così assurdi che sono difficili da identificare per tempo.
2)
Il costo computazionale è già enorme e continua a crescere, specialmente in termini di energia consumata, sarebbe interessante capire quanto sia sostenibile.
3)
Gli attuali sistemi basati su LLM sono inefficienti, ci sono architetture alternative che stanno emergendo (le Tsetlin Machine) che una volta raggiunta la massa critica in termini di sviluppo hardware e teoretico potrebbero spazzare via la necessità di costruire così tante nuove fab, causando un danno economico a chi si è già esposto finanziariamente per realizzarle, a chi deve le alte quotazioni in borsa alla bolla delle AI basate su LLM ed a chi ha acquistato quelle azioni pensando che sarebbero salite ancora.
2)
Il costo computazionale è già enorme e continua a crescere, specialmente in termini di energia consumata, sarebbe interessante capire quanto sia sostenibile.
Sono usciti nuovi algoritmi di training tipo LoRa, che permetto di abbattere in molti contesti il costo computazionale di svariati ordini di grandezza. Ciò non toglie che la quantità di energia richiesta è comunque enorme.
Gli attuali sistemi basati su LLM sono inefficienti, ci sono architetture alternative che stanno emergendo (le Tsetlin Machine) che una volta raggiunta la massa critica in termini di sviluppo hardware e teoretico potrebbero spazzare via la necessità di costruire così tante nuove fab, causando un danno economico a chi si è già esposto finanziariamente per realizzarle, a chi deve le alte quotazioni in borsa alla bolla delle AI basate su LLM ed a chi ha acquistato quelle azioni pensando che sarebbero salite ancora.
Interessante, queste non le conoscevo, mi informo
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".