Google e Anthropic: l'accordo da capogiro che spingerà i ricavi di Claude a 7 miliardi l'anno
Anthropic formalizza con Google Cloud la partnership che le garantirà accesso a un milione di unità di elaborazione tensoriale (TPU). L'accordo, del valore di decine di miliardi di dollari, prevede l'aggiunta di oltre 1 gigawatt di capacità computazionale entro il 2026 per supportare la crescita esponenziale dei modelli Claude
di Nino Grasso pubblicata il 24 Ottobre 2025, alle 10:41 nel canale WebGoogleAnthropic
Anthropic e Google hanno ufficializzato una nuova collaborazione, sancendo un impegno pluriennale che rappresenta il più grande deployment di unità "tensor" mai concordato dalla società di Mountain View. L'accordo consente all'azienda guidata dai fondatori ex OpenAI di accedere a un massimo di un milione di unità di elaborazione tensoriale, progettate specificamente per accelerare i carichi di lavoro legati all'AI. La capacità computazionale aggiuntiva, stimata in oltre 1 gigawatt, sarà operativa nel corso del 2026 e permetterà ad Anthropic di sostenere una crescita dei ricavi annui che si avvicina ai 7 miliardi di dollari.

Le stime di settore collocano il costo di un data center da 1 gigawatt nell'ordine dei 50 miliardi di dollari, di cui circa 35 miliardi destinati ai chip. L'architettura scelta da Anthropic si basa su un approccio multi-cloud che distribuisce i carichi di lavoro tra diverse piattaforme hardware: TPU di Google per alcuni task, chip Trainium 2 personalizzati di Amazon per altri e GPU NVIDIA per attività specifiche come addestramento, inferenza e ricerca. Secondo quanto riportato da CNBC, il modello multi-fornitore consente di ottimizzare costi, prestazioni e consumi energetici, estendendo il valore di ogni dollaro investito in capacità di calcolo rispetto ad architetture vincolate a un singolo vendor.
Thomas Kurian, CEO di Google Cloud, ha sottolineato come la decisione di espandere l'utilizzo delle TPU rifletta il rapporto qualità-prezzo e l'efficienza rilevati dai team di Anthropic nel corso degli anni, evidenziando il ruolo degli acceleratori Ironwood di settima generazione. Krishna Rao, CFO di Anthropic, ha dichiarato che la collaborazione di lunga data con Google Cloud supporterà la crescita delle risorse computazionali necessarie per continuare a spingersi oltre i confini dell'intelligenza artificiale.
L'architettura diversificata scelta da Anthropic ha già dimostrato la propria resilienza: durante l'interruzione dei servizi AWS avvenuta all'inizio della settimana, Claude non ha subito alcun impatto grazie alla ridondanza garantita dall'infrastruttura multi-cloud. L'azienda mantiene il controllo completo sui pesi dei modelli, sui prezzi e sui dati dei clienti, evitando vincoli di esclusività con qualsiasi fornitore di servizi cloud, anche se Amazon Web Services rimane comunque il partner più radicato in Anthropic, con investimenti complessivi pari a 8 miliardi di dollari. Si tratta di una cifra di gran lunga superiore rispetto ai 3 miliardi confermati da Google, che a gennaio ha aggiunto un ulteriore miliardo alla partecipazione già esistente del 10%.
La domanda crescente di capacità computazionale e l'accordo multimiliardario appena siglato rispecchiano l'espansione vertiginosa del business di Anthropic. Claude alimenta attualmente oltre 300 mila aziende, registrando un incremento di 300 volte negli ultimi due anni. Il numero di grandi clienti è cresciuto di quasi sette volte nell'ultimo anno e Claude Code, l'assistente di codifica agentica lanciato di recente, ha generato ricavi annualizzati per 500 milioni di dollari in appena due mesi, risultato che l'azienda definisce il più rapido della propria storia. Gli analisti di Wall Street stanno osservando con attenzione l'impatto di Anthropic sulle performance dei fornitori cloud sostenendo che, una volta consolidato Claude come strumento predefinito per gli sviluppatori enterprise, l'utilizzo si tradurrà direttamente in entrate per AWS, alimentando a sua volta la crescita del servizio cloud per molti anni a venire.
L'equilibrio tra i diversi partner infrastrutturali, unito alla capacità di gestire autonomamente i propri asset tecnologici, posiziona Anthropic in modo distintivo rispetto ai competitor che puntano su progetti di scala ancora maggiore ma con tempistiche meno definibili.










Cineca inaugura Pitagora, il supercomputer Lenovo per la ricerca sulla fusione nucleare
Mova Z60 Ultra Roller Complete: pulisce bene grazie anche all'IA
Renault Twingo E-Tech Electric: che prezzo!
Cina e Paesi Bassi verso la distensione sul caso Nexperia: riprendono le esportazioni di chip per uso civile
'Senza TSMC non ci sarebbe NVIDIA': Jensen Huang prima loda, poi pretende. E mette in guardia Musk
Fumo di sigaretta e sporco per 17 anni: da relitto tossico a gioiello da collezione, così è rinata questa 9800 GT
Resi Amazon Natale 2025: cambiano i tempi di reso per alcune categorie di prodotti
L'SSD modulare aggiornabile come un PC: l'innovazione marchiata Samsung
Intel ha denunciato un ex dipendente per furto di 18.000 file classificati 'Top Secret'
Blue Origin rinvia il secondo lancio del razzo New Glenn per problemi meteo e una nave da crociera
Nasce l'albo degli influencer 'rilevanti' in Italia: AGCOM ha aperto le iscrizioni
Il Digital Networks Act è stato rimandato: troppi aspetti ancora da chiarire
ASUS ROG ha lanciato due nuovi monitor da gaming con pannello Tandem OLED da 27 pollici
I nuovi iPhone 18 Pro potrebbero presentare un design inedito (per Apple)
Una parte dei Galaxy S26 avrà chip Exynos: la conferma arriva da Qualcomm
Amazon permetterà agli autori indipendenti di tradurre i libri con l'AI: arriva Kindle Translate
Il caso Zuckerberg a Palo Alto: una scuola privata non autorizzata e un quartiere in rivolta









2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoI dati "utili" da utilizzare cui espandere i modelli ormai li hanno esauriti, gli algoritmi utilizzato sono stati ottimizzati ma fondamentalmente sono ancora quelli di almeno una decina di anni fa.
L'unica notizia interessante è che circolano pubblicazioni sull'uso di circuiti analogici abbinati a memorie RERAM che permetterebbero di aumentare di 100 volte la potenza di calcolo a parità di consumi ... ma questo comporterebbe il buttare in discarica tutte le costose GPU attuali già acquistate o in fase di acquisto.
La ricerca di architetture più efficienti e capaci inoltre non finisce mai e probabilmente presto verranno anche abbandonati modelli puramente testuali per passare a quelli che elaborano testo direttamente con la visione, che a quanto pare a parità di calcolo (secondo l'ultimo paper di DeepSeek) riescono a comprimere lo stesso in maniera assai più efficiente. Sarebbero anche più vicini a come il cervello umano legge il testo.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".