Redazione di Hardware Upg
24-10-2025, 10:41
Link alla notizia: https://www.hwupgrade.it/news/web/google-e-anthropic-l-accordo-da-capogiro-che-spingera-i-ricavi-di-claude-a-7-miliardi-l-anno_145290.html
Anthropic formalizza con Google Cloud la partnership che le garantirà accesso a un milione di unità di elaborazione tensoriale (TPU). L'accordo, del valore di decine di miliardi di dollari, prevede l'aggiunta di oltre 1 gigawatt di capacità computazionale entro il 2026 per supportare la crescita esponenziale dei modelli Claude
Click sul link per visualizzare la notizia.
Ma da qualche parte spiegano che benefici ci sono aumentando la potenza di calcolo?
I dati "utili" da utilizzare cui espandere i modelli ormai li hanno esauriti, gli algoritmi utilizzato sono stati ottimizzati ma fondamentalmente sono ancora quelli di almeno una decina di anni fa.
L'unica notizia interessante è che circolano pubblicazioni sull'uso di circuiti analogici abbinati a memorie RERAM che permetterebbero di aumentare di 100 volte la potenza di calcolo a parità di consumi ... ma questo comporterebbe il buttare in discarica tutte le costose GPU attuali già acquistate o in fase di acquisto.
I dati già utili saranno anche finiti (cosa estremamente dubbia. Sono finiti quelli di facile reperibilità), ma non c'è limite al numero di modi per utilizzarli o trasformarli in dati più utili, cosa che richiede potenza di calcolo.
La ricerca di architetture più efficienti e capaci inoltre non finisce mai e probabilmente presto verranno anche abbandonati modelli puramente testuali per passare a quelli che elaborano testo direttamente con la visione, che a quanto pare a parità di calcolo (secondo l'ultimo paper di DeepSeek (https://arxiv.org/abs/2510.18234)) riescono a comprimere lo stesso in maniera assai più efficiente. Sarebbero anche più vicini a come il cervello umano legge il testo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.