ChatGPT tradisce Microsoft? OpenAI pronta a far girare l’AI di punta sui server Google

ChatGPT tradisce Microsoft? OpenAI pronta a far girare l’AI di punta sui server Google

OpenAI e Google, rivali storici nell’IA, avrebbero siglato un accordo segreto che potrebbe rivoluzionare il settore: ChatGPT potrebbe presto girare anche sui server di Google Cloud, riducendo la dipendenza da Microsoft.

di pubblicata il , alle 10:01 nel canale Web
OpenAIMicrosoftChatGPTGoogleGoogle Cloud
 

Quando si parla di intelligenza artificiale, la rivalità tra OpenAI e Google è tra le più accese del panorama tech. Eppure, secondo fonti vicine a Reuters e diverse testate internazionali, sarebbe in corso una vera e propria rivoluzione dietro le quinte: OpenAI avrebbe siglato un accordo con Google per utilizzare la sua infrastruttura cloud, aprendo scenari inediti per il futuro di ChatGPT e, più in generale, per l’intero settore dell’IA.

Un patto tra “nemici” che cambia le regole del gioco

La notizia è di quelle destinate a far discutere: dopo mesi di trattative serrate, OpenAI e Google avrebbero finalizzato a maggio un’intesa che permette all’azienda guidata da Sam Altman di sfruttare la potenza di calcolo dei data center di Google Cloud per addestrare ed eseguire i propri modelli di intelligenza artificiale, compreso ChatGPT.

Fino a pochi mesi fa, uno scenario simile sarebbe stato impensabile. OpenAI, infatti, era legata a doppio filo a Microsoft, che aveva l’esclusiva sull’infrastruttura cloud tramite Azure. Ma da gennaio, con la fine di questa esclusiva, OpenAI ha iniziato a guardarsi intorno, stringendo accordi anche con altri colossi come Oracle, SoftBank e CoreWeave, nel tentativo di diversificare le fonti di calcolo e ridurre i rischi legati a un unico fornitore.

Perché OpenAI ha bisogno di Google?

La domanda è lecita: perché rivolgersi proprio a quello che, almeno sulla carta, è il concorrente più diretto? La risposta sta tutta nei numeri e nella fame insaziabile di potenza di calcolo che caratterizza il settore dell’IA generativa. La domanda di ChatGPT e degli altri servizi OpenAI è letteralmente esplosa, al punto che la sola infrastruttura di Microsoft non basta più a sostenere la crescita. L’accordo con Google permette così a OpenAI di accedere a risorse aggiuntive, garantendo maggiore affidabilità e la possibilità di gestire meglio i picchi di traffico, come dimostrato anche dai recenti blackout globali che hanno colpito ChatGPT.

Non solo: questa mossa consente a OpenAI di rafforzare la propria posizione negoziale nei confronti di Microsoft, che resta comunque un partner fondamentale, ma non più esclusivo. Le trattative per ridefinire la partecipazione azionaria di Microsoft in OpenAI sono tuttora in corso, e la concorrenza di Google potrebbe rimescolare ulteriormente le carte.

Cosa cambia per Google e per il mercato cloud

Per Google, l’accordo rappresenterebbe una vittoria strategica. Dopo aver investito miliardi nello sviluppo di chip proprietari (le TPU) e nell’espansione dei data center, il colosso di Mountain View si posiziona sempre più come punto di riferimento per le startup e le aziende che lavorano sull’IA, sottraendo clienti preziosi ad Amazon e Microsoft.

L’arrivo di OpenAI tra i clienti di Google Cloud potrebbe essere destinato a pesare anche sui numeri: nel 2024 la divisione cloud di Alphabet ha generato 43 miliardi di dollari, pari al 12% dei ricavi totali. L’ingresso di un cliente del calibro di OpenAI potrebbe far impennare ulteriormente questi dati, rafforzando la posizione di Google in un mercato sempre più competitivo.

Non mancano però le incognite: Google, infatti, già fatica a soddisfare la domanda crescente di risorse cloud e l’arrivo di OpenAI potrebbe mettere sotto ulteriore pressione la capacità dei data center, costringendo il gruppo a rivedere le priorità tra clienti interni ed esterni.

ChatGPT abbandona Microsoft? Ecco cosa sappiamo davvero

Al momento non è chiaro se ChatGPT verrà eseguito esclusivamente sui server Google o se OpenAI adotterà una strategia ibrida, continuando a utilizzare anche Azure e le altre partnership siglate negli ultimi mesi. Quello che è certo è che la dipendenza da un unico fornitore è ormai un ricordo del passato e che la diversificazione delle fonti di calcolo è diventata una priorità assoluta per OpenAI.

La partnership con Google, se confermata ufficialmente, potrebbe anche ridurre il rischio di interruzioni di servizio come quella che ha colpito ChatGPT proprio in questi giorni. In attesa di comunicati ufficiali, la sensazione è che il settore dell’IA stia vivendo una nuova fase, dove alleanze e rivalità si intrecciano in modo sempre più imprevedibile.

L’accordo tra OpenAI e Google, sebbene non ancora annunciato pubbblicamente, segnerebbe un punto di svolta epocale: i giganti dell’intelligenza artificiale non possono più permettersi di restare chiusi nei propri ecosistemi, ma devono collaborare – anche con i rivali – per sostenere una crescita senza precedenti. La corsa all’IA non conosce più confini netti e il futuro di ChatGPT, e dell’intero settore, sarà sempre più scritto sulle nuvole di diversi provider cloud.

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
UtenteHD11 Giugno 2025, 10:24 #1
Stavo leggendo su un sito dedicato sulla sicurezza come sta evolvendo l'AI in Antropic e lascia pensare, ora mi sa che l'AI in generale non la fermi piu', non fara' altro che migliorare, speriamo bene e che facciano tutto con saggezza e sapienza.
pachainti11 Giugno 2025, 12:52 #2
Giugno 2025: The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity

Through extensive experimentation across diverse puzzles, we show that frontier LRMs face a complete accuracy collapse beyond certain complexities.
Moreover, they exhibit a counter- intuitive scaling limit: their reasoning effort increases with problem complexity up to a point, then declines despite having an adequate token budget. By comparing LRMs with their standard LLM counterparts under equivalent inference compute, we identify three performance regimes: (1) low- complexity tasks where standard models surprisingly outperform LRMs, (2) medium-complexity tasks where additional thinking in LRMs demonstrates advantage, and (3) high-complexity tasks where both models experience complete collapse.
Ago7211 Giugno 2025, 13:41 #3
Originariamente inviato da: pachainti
(1) low- complexity tasks where standard models surprisingly outperform LRMs, (2) medium-complexity tasks where additional thinking in LRMs demonstrates advantage, and (3) high-complexity tasks where both models experience complete collapse.[/I]


Questo studio dimostra il grande vantaggio economico che ha l'IA attuale e il perchè del suo successo.
Abusando del principio di Pareto, il 20% del nostro tempo è altamente produttivo perchè impegnato per il livello 3, mentre il restante 80% è scarsamente produttivo perchè impegnato nei livelli 1/2.
Se siamo in grado di sgravarci dei livelli 1/2, abbiamo più tempo dadicare al livello 3, che genera maggior valore aggiunto e si spera profitto.

Con questo non voglio nasconere che l'IA sarà una enorme sfida per la nostra società, che potrebbe diventare sempre più iniqua. Con poche persone che hanno i mezzi di produzione (che non ha più bisogno dell'uomo) ed economici, e il resto della popolazione in competizione con le macchine. Situazione che per altro sta già avvenedo adesso.
pachainti11 Giugno 2025, 18:07 #4
Originariamente inviato da: Ago72
Questo studio dimostra il grande vantaggio economico che ha l'IA attuale e il perchè del suo successo.
Abusando del principio di Pareto, il 20% del nostro tempo è altamente produttivo perchè impegnato per il livello 3, mentre il restante 80% è scarsamente produttivo perchè impegnato nei livelli 1/2.
Se siamo in grado di sgravarci dei livelli 1/2, abbiamo più tempo dadicare al livello 3, che genera maggior valore aggiunto e si spera profitto.

Con questo non voglio nasconere che l'IA sarà una enorme sfida per la nostra società, che potrebbe diventare sempre più iniqua. Con poche persone che hanno i mezzi di produzione (che non ha più bisogno dell'uomo) ed economici, e il resto della popolazione in competizione con le macchine. Situazione che per altro sta già avvenedo adesso.


L'IA non ha alcun successo, è una grande scommessa, basata sull'illusione che funzioni (in realtà gli LLM sono solo generatori di stronzate come dimostrato dalla ricerca ChatGPT is bullshit). Il punto è che ci hanno investito troppo e non sanno come recuperarlo, per questo cercano di infilarla ovunque, ma la bolla è pronta a scoppiare.

Silicon Valley Is All In on AI

[I]Venture capital (VC) funds, drunk on a decade of “growth at all costs,” have poured about $200 billion into generative AI. In 2023, 71 percent of the total gains in the S&P 500 were attributable to the “Magnificent Seven”—Apple, Nvidia, Tesla, Alphabet, Meta, Amazon, and Microsoft—all of which are among the biggest spenders on AI. Just four—Microsoft, Alphabet, Amazon, and Meta—combined for $246 billion of capital expenditure in 2024 to support the AI build-out. Goldman Sachs expects Big Tech to spend over $1 trillion on chips and data centers to power AI over the next five years. Yet OpenAI, the current market leader, expects to lose $5 billion this year, and its annual losses to swell to $11 billion by 2026. If the AI bubble bursts, it not only threatens to wipe out VC firms in the Valley but also blow a gaping hole in the public markets and cause an economy-wide meltdown.

According to its own numbers, OpenAI loses $2 for every $1 it makes, a red flag for the sustainability of any business.
Further, OpenAI sees $100 billion in annual revenue—a number that would rival Nestlé and Target’s returns—as the point at which it will finally break even. For comparison, Google’s parent company, Alphabet, only cleared $100 billion in sales in 2021, 23 years after its founding, yet boasted a portfolio of money-making products, including Google Search, the Android operating system, Gmail, and cloud computing.
OpenAI has set $100 billion as its break-even point, which would require it to increase its revenue by a factor of 25 in just five years, an incredible feat of scale that its current business model does not justify.[/I]

Tante promesse, pochi fatti.
2013 47% of jobs will vanish in the next 25 years, say Oxford University researchers
2022 Oops: The Predicted 47 Percent of Job Loss From AI Didn’t Happen
Ago7212 Giugno 2025, 09:02 #5
Originariamente inviato da: pachainti
L'IA non ha alcun successo, è una grande scommessa, basata sull'illusione che funzioni (in realtà gli LLM sono solo generatori di stronzate <cut>


Non sono d'accordo con lo studio. O meglio, finchè giudichiamo ChatGPT sulle risposte alla "Domanda Fondamentale sulla Vita, sull'Universo e Tutto quanto". Sono perfettamente d'accordo con lo studio. La maggior parte delle volte sono stronzate. In quanto come ho già dettto altrove, gli LLM non ragionano.

Ma quando chiediamo (con granus salis) la produzione di SW partendo dalla descrizione di un problema, una sintesi di un testo, la preparazione di una bozza di mail, una sintesi di una ricerca complessa su diversi tempi, una bozza di specifica, ChatGPT funziona molto bene. Certo, stiamo parlando di uno strumento che deve essere supervisionato, ma assolutamente utile, in quanto fa risparmiare un sacco di tempo.

Sapere come funziona ChatGPT è importante per utilizzarlo nei task dove funziona.
pachainti13 Giugno 2025, 12:12 #6
Originariamente inviato da: Ago72
Non sono d'accordo con lo studio. O meglio, finchè giudichiamo ChatGPT sulle risposte alla "Domanda Fondamentale sulla Vita, sull'Universo e Tutto quanto". Sono perfettamente d'accordo con lo studio. La maggior parte delle volte sono stronzate. In quanto come ho già dettto altrove, gli LLM non ragionano.


Questa risposta mi fa pensare che tu non abbia letto lo studio. Qui è spiegato bene in italiano, almeno secondo me.

Originariamente inviato da: Ago72
Ma quando chiediamo (con granus salis) la produzione di SW partendo dalla descrizione di un problema, una sintesi di un testo, la preparazione di una bozza di mail, una sintesi di una ricerca complessa su diversi tempi, una bozza di specifica, ChatGPT funziona molto bene. Certo, stiamo parlando di uno strumento che deve essere supervisionato, ma assolutamente utile, in quanto fa risparmiare un sacco di tempo.

Sapere come funziona ChatGPT è importante per utilizzarlo nei task dove funziona.


Questo è il punto fondamentale su ChatGPT e gli LLM. Se già conosci la risposta, non hanno senso. Viceversa, se non la conosci, non puoi fidarti di loro come un oracolo. Infine, se devi verificare il loro lavoro, spesso ti conviene trovare la risposta da solo. In breve a cosa servono? A niente, solo a far fare soldi ai pochi che li controllano.

ChatGPT e gli LLM sono generatori di stronzate. ChatGPT is bullshit

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^