Google e Anthropic: l'accordo da capogiro che spingerà i ricavi di Claude a 7 miliardi l'anno

Google e Anthropic: l'accordo da capogiro che spingerà i ricavi di Claude a 7 miliardi l'anno

Anthropic formalizza con Google Cloud la partnership che le garantirà accesso a un milione di unità di elaborazione tensoriale (TPU). L'accordo, del valore di decine di miliardi di dollari, prevede l'aggiunta di oltre 1 gigawatt di capacità computazionale entro il 2026 per supportare la crescita esponenziale dei modelli Claude

di pubblicata il , alle 10:41 nel canale Web
GoogleAnthropic
 

Anthropic e Google hanno ufficializzato una nuova collaborazione, sancendo un impegno pluriennale che rappresenta il più grande deployment di unità "tensor" mai concordato dalla società di Mountain View. L'accordo consente all'azienda guidata dai fondatori ex OpenAI di accedere a un massimo di un milione di unità di elaborazione tensoriale, progettate specificamente per accelerare i carichi di lavoro legati all'AI. La capacità computazionale aggiuntiva, stimata in oltre 1 gigawatt, sarà operativa nel corso del 2026 e permetterà ad Anthropic di sostenere una crescita dei ricavi annui che si avvicina ai 7 miliardi di dollari.

Le stime di settore collocano il costo di un data center da 1 gigawatt nell'ordine dei 50 miliardi di dollari, di cui circa 35 miliardi destinati ai chip. L'architettura scelta da Anthropic si basa su un approccio multi-cloud che distribuisce i carichi di lavoro tra diverse piattaforme hardware: TPU di Google per alcuni task, chip Trainium 2 personalizzati di Amazon per altri e GPU NVIDIA per attività specifiche come addestramento, inferenza e ricerca. Secondo quanto riportato da CNBC, il modello multi-fornitore consente di ottimizzare costi, prestazioni e consumi energetici, estendendo il valore di ogni dollaro investito in capacità di calcolo rispetto ad architetture vincolate a un singolo vendor.

Thomas Kurian, CEO di Google Cloud, ha sottolineato come la decisione di espandere l'utilizzo delle TPU rifletta il rapporto qualità-prezzo e l'efficienza rilevati dai team di Anthropic nel corso degli anni, evidenziando il ruolo degli acceleratori Ironwood di settima generazione. Krishna Rao, CFO di Anthropic, ha dichiarato che la collaborazione di lunga data con Google Cloud supporterà la crescita delle risorse computazionali necessarie per continuare a spingersi oltre i confini dell'intelligenza artificiale.

L'architettura diversificata scelta da Anthropic ha già dimostrato la propria resilienza: durante l'interruzione dei servizi AWS avvenuta all'inizio della settimana, Claude non ha subito alcun impatto grazie alla ridondanza garantita dall'infrastruttura multi-cloud. L'azienda mantiene il controllo completo sui pesi dei modelli, sui prezzi e sui dati dei clienti, evitando vincoli di esclusività con qualsiasi fornitore di servizi cloud, anche se Amazon Web Services rimane comunque il partner più radicato in Anthropic, con investimenti complessivi pari a 8 miliardi di dollari. Si tratta di una cifra di gran lunga superiore rispetto ai 3 miliardi confermati da Google, che a gennaio ha aggiunto un ulteriore miliardo alla partecipazione già esistente del 10%.

La domanda crescente di capacità computazionale e l'accordo multimiliardario appena siglato rispecchiano l'espansione vertiginosa del business di Anthropic. Claude alimenta attualmente oltre 300 mila aziende, registrando un incremento di 300 volte negli ultimi due anni. Il numero di grandi clienti è cresciuto di quasi sette volte nell'ultimo anno e Claude Code, l'assistente di codifica agentica lanciato di recente, ha generato ricavi annualizzati per 500 milioni di dollari in appena due mesi, risultato che l'azienda definisce il più rapido della propria storia. Gli analisti di Wall Street stanno osservando con attenzione l'impatto di Anthropic sulle performance dei fornitori cloud sostenendo che, una volta consolidato Claude come strumento predefinito per gli sviluppatori enterprise, l'utilizzo si tradurrà direttamente in entrate per AWS, alimentando a sua volta la crescita del servizio cloud per molti anni a venire.

L'equilibrio tra i diversi partner infrastrutturali, unito alla capacità di gestire autonomamente i propri asset tecnologici, posiziona Anthropic in modo distintivo rispetto ai competitor che puntano su progetti di scala ancora maggiore ma con tempistiche meno definibili.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
LMCH24 Ottobre 2025, 17:41 #1
Ma da qualche parte spiegano che benefici ci sono aumentando la potenza di calcolo?

I dati "utili" da utilizzare cui espandere i modelli ormai li hanno esauriti, gli algoritmi utilizzato sono stati ottimizzati ma fondamentalmente sono ancora quelli di almeno una decina di anni fa.

L'unica notizia interessante è che circolano pubblicazioni sull'uso di circuiti analogici abbinati a memorie RERAM che permetterebbero di aumentare di 100 volte la potenza di calcolo a parità di consumi ... ma questo comporterebbe il buttare in discarica tutte le costose GPU attuali già acquistate o in fase di acquisto.
s12a24 Ottobre 2025, 18:42 #2
I dati già utili saranno anche finiti (cosa estremamente dubbia. Sono finiti quelli di facile reperibilità, ma non c'è limite al numero di modi per utilizzarli o trasformarli in dati più utili, cosa che richiede potenza di calcolo.

La ricerca di architetture più efficienti e capaci inoltre non finisce mai e probabilmente presto verranno anche abbandonati modelli puramente testuali per passare a quelli che elaborano testo direttamente con la visione, che a quanto pare a parità di calcolo (secondo l'ultimo paper di DeepSeek) riescono a comprimere lo stesso in maniera assai più efficiente. Sarebbero anche più vicini a come il cervello umano legge il testo.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^