Pentagono e Anthropic ai ferri corti: in bilico il contratto da 200 milioni per l'uso militare di Claude

Pentagono e Anthropic ai ferri corti: in bilico il contratto da 200 milioni per l'uso militare di Claude

Il Dipartimento della Difesa USA ha messo "sotto revisione" il rapporto con Anthropic per divergenze sui limiti d'uso militare dei modelli Claude. In discussione il contratto da 200 milioni di dollari: il Pentagono chiede impiego senza restrizioni legali, l'azienda vuole invece dei paletti ben precisi.

di pubblicata il , alle 10:51 nel canale Web
Anthropic
 

Il rapporto tra il Dipartimento della Difesa degli Stati Uniti e Anthropic si è fatto difficile, tanto da entrare in una fase di cosiddetta "revisione formale". Vi sono, infatti, divergenze sulle modalità di utilizzo dei modelli di intelligenza artificiale sviluppati da Anthropic.

Al centro della disputa vi è il contratto quinquennale da 200 milioni di dollari assegnato lo scorso anno, oggi potenzialmente a rischio qualora non si trovasse un'intesa sulle condizioni d'impiego future.

La startup, fondata nel 2021 da ex ricercatori di OpenAI, è nota per la famiglia di modelli linguistici Claude. Proprio Claude risulta attualmente l'unico sistema AI di un'azienda privata già distribuito sulle reti classificate del Dipartimento della Difesa, con versioni personalizzate destinate a clienti dell'ambito sicurezza nazionale.

Il nodo principale riguarda l'estensione dei casi d'uso consentiti. Il DoD, attraverso il sottosegretario alla Difesa per la ricerca e l'ingegneria Emil Michael, ha ribadito l'intenzione di poter utilizzare i modelli "per tutti gli impieghi leciti", senza ulteriori limitazioni contrattuali. L'amministrazione teme che restrizioni ex ante possano impedire l'utilizzo degli strumenti in situazioni urgenti od operative, introducendo incertezza tecnica e giuridica.

Anthropic, dal canto suo, chiede garanzie formali affinché i propri modelli non vengano impiegati in due ambiti specifici: sistemi d'arma completamente autonomi e sorveglianza di massa dei cittadini statunitensi. Secondo il Pentagono, tuttavia, la definizione di tali confini lascerebbe una "zona grigia" interpretativa che renderebbe complessa la gestione operativa e la pianificazione su larga scala.

Le tensioni si sono intensificate dopo che Claude sarebbe stato utilizzato, tramite integrazione con Palantir Technologies, in un'operazione in Venezuela culminata con la cattura del presidente Nicolás Maduro. Le modalità tecniche di impiego non sono state rese pubbliche, ma l'episodio ha riportato al centro dell'attenzione il ruolo dell'AI in contesti operativi sensibili.

Il confronto avviene mentre altri grandi operatori – tra cui Google e xAI – hanno ottenuto contratti fino a 200 milioni di dollari ciascuno e accettato l'utilizzo dei propri modelli per tutti gli impieghi leciti sui sistemi non classificati del Dipartimento della Difesa; almeno un'azienda avrebbe esteso tale disponibilità anche a tutti i sistemi.

In caso di mancato accordo, il DoD potrebbe arrivare a designare Anthropic come "supply chain risk", un'etichetta solitamente riservata ad attori stranieri considerati problematici. Una simile classificazione obbligherebbe fornitori e appaltatori a certificare il non utilizzo dei modelli Claude, con impatti significativi sul posizionamento dell'azienda nel mercato governativo.

Le parti hanno dichiarato di essere impegnate in colloqui "produttivi e in buona fede". L'esito delle negoziazioni definirà non solo il futuro del contratto da 200 milioni di dollari, ma anche il quadro di riferimento per l'impiego dell'intelligenza artificiale generativa nei contesti militari statunitensi.

Sul piano finanziario, Anthropic ha recentemente chiuso un round da 30 miliardi di dollari che porta la valutazione a 380 miliardi, più che raddoppiata rispetto alla raccolta precedente.

1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto19 Febbraio 2026, 12:10 #1
Perché non dare in mano tutto l'arsenale di armi,atomiche o chimiche che siano, compreso il controllo di aerei,navi, sottomarini,carroarmati e compagnia bella alla IA di Sam Altman?
Ma senza mettere filtri e paletti,la IA può attivare le armi quando e come vuole,anche su comando di un pazzoide che lo richiede.
Questi risolverebbe il problema di questo pianeta......l'essere umano!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^