OpenAI smentisce l'adozione delle TPU di Google su larga scala e NVIDIA si bulla

OpenAI conferma test interni sulle TPU di Google ma smentisce piani per un loro uso su larga scala. L'azienda continua a puntare su GPU NVIDIA e, in misura minore, su quelle AMD. In corso anche lo sviluppo di un chip proprietario.
di Manolo De Agostini pubblicata il 08 Luglio 2025, alle 08:01 nel canale Server e WorkstationGoogleNVIDIAOpenAIChatGPT
Negli ultimi giorni di giugno, un'indiscrezione diffusa da Reuters e altre testate aveva fatto emergere un possibile avvicinamento tra OpenAI e Google sul fronte hardware per l'intelligenza artificiale. Secondo quanto riportato, la società dietro ChatGPT stava valutando l'adozione delle TPU (Tensor Processing Unit) sviluppate da Google come alternativa agli acceleratori AI di NVIDIA. La notizia ha immediatamente destato attenzione, considerando che OpenAI è uno dei clienti di riferimento di NVIDIA e fa largo uso delle sue GPU di ultima generazione.
Tuttavia, OpenAI ha chiarito che non ha intenzione di adottare le TPU su larga scala. Un portavoce della società ha confermato che le TPU di Google sono oggetto di test interni, ma non ci sono piani concreti per un loro impiego strutturale a breve termine. È prassi comune tra i laboratori di intelligenza artificiale sperimentare diverse soluzioni hardware, ma la transizione a un nuovo tipo di chip su vasta scala richiede tempo, adeguamenti architetturali e un significativo lavoro di integrazione software.
La notizia è stata subito ribattuta su X da NVIDIA, che si è vantata del rapporto con la società guidata da Sam Altman. "Siamo orgogliosi di collaborare con OpenAI e di continuare ad alimentare le fondamenta del loro lavoro", riporta il post.
We're proud to partner with @OpenAI and continue powering the foundation of their work. pic.twitter.com/CWgsn1uAIk
— NVIDIA (@nvidia) July 7, 2025
Attualmente, OpenAI continua a utilizzare prevalentemente le GPU NVIDIA per sostenere la crescente domanda di calcolo, facendo ricorso anche agli acceleratori AMD Instinct in misura più limitata. Inoltre, l'azienda è impegnata nello sviluppo del proprio chip AI, che dovrebbe raggiungere il traguardo del tape-out - la fase di finalizzazione del design prima della produzione - entro l'anno.
La maggior parte dell'infrastruttura hardware utilizzata da OpenAI non è di sua proprietà diretta: l'azienda si affida a fornitori esterni come CoreWeave, nelle scorse ore fautrice di una grossa acquisizione e destinataria del primo sistema GB300 NVL72. Parallelamente, OpenAI utilizza anche alcuni servizi di Google Cloud per soddisfare le proprie esigenze di elaborazione, un'ulteriore dimostrazione della fluidità e complessità dei rapporti tra grandi protagonisti del settore.
Dal canto suo, Google sta ampliando la disponibilità commerciale delle proprie TPU, precedentemente riservate a usi interni. Tra i clienti emergono nomi come Apple, Anthropic e Safe Superintelligence.
Insomma, il test delle TPU di Google da parte di OpenAI non rappresenta necessariamente un cambiamento di rotta, ma testimonia l'interesse dell'azienda a valutare ogni opzione per rafforzare la propria capacità di calcolo, in un mercato sempre più esigente e dinamico.
1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".