OpenAI esce allo scoperto: confermati i chip di intelligenza artificiale proprietari con l'aiuto di Broadcom

OpenAI esce allo scoperto: confermati i chip di intelligenza artificiale proprietari con l'aiuto di Broadcom

OpenAI e Broadcom hanno annunciato una collaborazione pluriennale per sviluppare e distribuire 10 gigawatt di acceleratori AI progettati internamente da OpenAI. L'accordo prevede sistemi completi con soluzioni Ethernet Broadcom, destinati a entrare in funzione dal 2026. Obiettivo: spingere l'evoluzione dell'IA ed essere un po' meno vincolati a NVIDIA e AMD.

di pubblicata il , alle 17:31 nel canale Processori
BroadcomOpenAI
 

OpenAI e Broadcom hanno annunciato una collaborazione strategica che le vedrà realizzare congiuntamente 10 gigawatt di acceleratori AI "custom", con l'obiettivo di costruire infrastrutture scalabili e ad alte prestazioni per i futuri cluster di intelligenza artificiale. Da tempo si vociferava della volontà di OpenAI di progettarsi chip in casa, con l'aiuto di un partner solido come Broadcom. Finalmente, dopo tante voci, ecco arrivare la conferma ufficiale.

Il progetto, di carattere pluriennale e in sviluppo da circa 18 mesi, prevede la co-progettazione di sistemi hardware che includono sia gli acceleratori sviluppati da OpenAI, sia le soluzioni di rete Ethernet e la connettività di Broadcom. L'avvio delle implementazioni è previsto per la seconda metà del 2026, con completamento entro il 2029.

Secondo l'accordo, OpenAI realizzerà internamente gli acceleratori e i rack che li ospiteranno, integrando nel silicio l'esperienza maturata nello sviluppo di modelli di frontiera come ChatGPT. In questo modo, la società punta a ottenere un controllo più diretto sull'efficienza e sulle capacità dei propri sistemi di addestramento e inferenza.

Sam Altman, cofondatore e CEO di OpenAI, ha definito la partnership con Broadcom "un passo cruciale per costruire l'infrastruttura necessaria a sbloccare il pieno potenziale dell'intelligenza artificiale". Altman ha sottolineato come la progettazione di chip proprietari permetta all'azienda di contribuire a un ecosistema più ampio di innovatori nel campo dell'AI.

Hock Tan, presidente e CEO di Broadcom, ha descritto la collaborazione come "un momento decisivo nella corsa verso l'intelligenza artificiale generale", evidenziando la volontà di entrambe le aziende di creare sistemi di nuova generazione in grado di gestire carichi di lavoro sempre più complessi.

Greg Brockman, cofondatore e presidente di OpenAI, ha aggiunto che lo sviluppo di chip dedicati consentirà di "trasferire direttamente nel design dell'hardware le lezioni apprese dalla creazione dei modelli di frontiera", con un impatto diretto su prestazioni e intelligenza del sistema.

Dal lato tecnico, Broadcom metterà a disposizione un portafoglio completo di tecnologie di interconnessione, tra cui Ethernet, PCIe e ottica, per garantire scalabilità, efficienza energetica e riduzione dei costi nei futuri datacenter AI. Come ha spiegato Charlie Kawwas, presidente della Semiconductor Solutions Group di Broadcom, "gli acceleratori custom si combinano perfettamente con l'Ethernet per offrire infrastrutture AI ottimizzate in termini di costo e prestazioni".

OpenAI, che oggi dichiara oltre 800 milioni di utenti attivi settimanali e una crescente adozione dei propri modelli da parte di imprese e sviluppatori, mira con questa collaborazione a più obiettivi: il primo è quello di avere un "piano B" e, sul lungo termine, rendersi meno dipende da NVIDIA e AMD - con cui ha siglato importantissimi contratti (qui e qui) in queste settimane - ma, soprattutto, a differenziarsi da realtà come Google, Amazon e Microsoft, anch'esse concentrate nello sviluppo di hardware proprietario per l'AI.

5 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
sbudellaman13 Ottobre 2025, 17:38 #1
ma hanno intenzione di sostituire proprio le gpu nvidia? Pensavo che servisse un know how inarrivabile per queste schede
fabius2113 Ottobre 2025, 18:08 #2
Originariamente inviato da: sbudellaman
ma hanno intenzione di sostituire proprio le gpu nvidia? Pensavo che servisse un know how inarrivabile per queste schede


E penso di si, perchè mi è sembrato di capire che le gpu hanno troppe cose che non gli servono, percui fare un chip specifico è meglio, un pò con i miner di bitcoin adesso, fanno solo il calcolo dello sha256, ma non ci puoi fare altro.
A queste pseudo ai, da come ho capito, servono solo un tipo di calcoli.
Al massimo in futuro, se serviranno altri tipi di calcoli, affiancheranno dei cluster per quel compito specifico. Magari tornando alle gpu.
bancodeipugni13 Ottobre 2025, 18:17 #3
tra un po' ci sarà la gente che usa solo la destra o solo la sinistra

... e i tornei di tennis con categoria diritto e categoria rovescio....
supertigrotto13 Ottobre 2025, 19:51 #4
Ma hanno chiesto il permesso a Huang?
LMCH13 Ottobre 2025, 20:09 #5
Notare come il comunicato di OpenAI parla in termini di GIGAWATT di potenza elettrica consumata e non di potenza di calcolo.
Il primo motivo è che "l'equivalente di due centrali nucleari come Zhaporizha" impressiona di più potenziali investitori che capiscono poco di AI e LLM rispetto agli exaflop e cose simili.
Il secondo motivo è che così possono evitare di fare confronti con i prodotti dei competitor e fornitori.

Le "GPU"/"Tensor Core" H100 di NVidia sono ottimizzate per il calcolo matriciale e non hanno le pipeline che servono per la grafica raster, ma possono essere usate anche per altri tipi di calcoli ad elevato parallelismo, invece dei core super-specializzati solo per le elaborazioni ed i formati di dati "ridotti" (FP16, FP8, FP4, ...) usati esclusivamente per i LLM diventano ferraglia inutile se la bolla degli LLM scoppia o se spuntano fuori nuovi algoritmi che girano male sui core TROPPO specializzati.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^