Pentagono e Anthropic ai ferri corti: in bilico il contratto da 200 milioni per l'uso militare di Claude
Il Dipartimento della Difesa USA ha messo "sotto revisione" il rapporto con Anthropic per divergenze sui limiti d'uso militare dei modelli Claude. In discussione il contratto da 200 milioni di dollari: il Pentagono chiede impiego senza restrizioni legali, l'azienda vuole invece dei paletti ben precisi.
di Manolo De Agostini pubblicata il 19 Febbraio 2026, alle 10:51 nel canale WebAnthropic
Il rapporto tra il Dipartimento della Difesa degli Stati Uniti e Anthropic si è fatto difficile, tanto da entrare in una fase di cosiddetta "revisione formale". Vi sono, infatti, divergenze sulle modalità di utilizzo dei modelli di intelligenza artificiale sviluppati da Anthropic.
Al centro della disputa vi è il contratto quinquennale da 200 milioni di dollari assegnato lo scorso anno, oggi potenzialmente a rischio qualora non si trovasse un'intesa sulle condizioni d'impiego future.
La startup, fondata nel 2021 da ex ricercatori di OpenAI, è nota per la famiglia di modelli linguistici Claude. Proprio Claude risulta attualmente l'unico sistema AI di un'azienda privata già distribuito sulle reti classificate del Dipartimento della Difesa, con versioni personalizzate destinate a clienti dell'ambito sicurezza nazionale.

Il nodo principale riguarda l'estensione dei casi d'uso consentiti. Il DoD, attraverso il sottosegretario alla Difesa per la ricerca e l'ingegneria Emil Michael, ha ribadito l'intenzione di poter utilizzare i modelli "per tutti gli impieghi leciti", senza ulteriori limitazioni contrattuali. L'amministrazione teme che restrizioni ex ante possano impedire l'utilizzo degli strumenti in situazioni urgenti od operative, introducendo incertezza tecnica e giuridica.
Anthropic, dal canto suo, chiede garanzie formali affinché i propri modelli non vengano impiegati in due ambiti specifici: sistemi d'arma completamente autonomi e sorveglianza di massa dei cittadini statunitensi. Secondo il Pentagono, tuttavia, la definizione di tali confini lascerebbe una "zona grigia" interpretativa che renderebbe complessa la gestione operativa e la pianificazione su larga scala.
Le tensioni si sono intensificate dopo che Claude sarebbe stato utilizzato, tramite integrazione con Palantir Technologies, in un'operazione in Venezuela culminata con la cattura del presidente Nicolás Maduro. Le modalità tecniche di impiego non sono state rese pubbliche, ma l'episodio ha riportato al centro dell'attenzione il ruolo dell'AI in contesti operativi sensibili.
Il confronto avviene mentre altri grandi operatori – tra cui Google e xAI – hanno ottenuto contratti fino a 200 milioni di dollari ciascuno e accettato l'utilizzo dei propri modelli per tutti gli impieghi leciti sui sistemi non classificati del Dipartimento della Difesa; almeno un'azienda avrebbe esteso tale disponibilità anche a tutti i sistemi.
In caso di mancato accordo, il DoD potrebbe arrivare a designare Anthropic come "supply chain risk", un'etichetta solitamente riservata ad attori stranieri considerati problematici. Una simile classificazione obbligherebbe fornitori e appaltatori a certificare il non utilizzo dei modelli Claude, con impatti significativi sul posizionamento dell'azienda nel mercato governativo.
Le parti hanno dichiarato di essere impegnate in colloqui "produttivi e in buona fede". L'esito delle negoziazioni definirà non solo il futuro del contratto da 200 milioni di dollari, ma anche il quadro di riferimento per l'impiego dell'intelligenza artificiale generativa nei contesti militari statunitensi.
Sul piano finanziario, Anthropic ha recentemente chiuso un round da 30 miliardi di dollari che porta la valutazione a 380 miliardi, più che raddoppiata rispetto alla raccolta precedente.










HP Imagine 2026: abbiamo visto HP IQ all’opera, ecco cosa può (e non può) fare
PNY RTX 5080 Slim OC, sembra una Founders Edition ma non lo è
Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Il dodicesimo lancio del razzo spaziale SpaceX Starship è atteso per aprile, Super Heavy Booster 19 ha completato nuovi test
Blue Origin sta assemblando il secondo lander lunare Blue Moon MK1
Meta moltiplica gli investimenti in data center IA: le nuove cifre previste dal bilancio sono folli
Addio riflessi fastidiosi? Samsung presenta una nuova pellicola per i display OLED
PlayStation 5, doccia fredda da Sony: i prezzi aumentano ancora fino a 899 euro
Super Meat Boy 3D: annunciata la data d'uscita su PC e Xbox Series X/S, manca davvero poco
XT View Matrix, il mid-tower Phanteks che punta su estetica e funzionalità moderne
David Sacks lascia il ruolo di 'Crypto Czar' alla Casa Bianca mentre le riforme su Bitcoin e stablecoin restano ancora incomplete
LG All Stars 2026: quando l'installatore diventa il vero protagonista della transizione
Addio ad Anna's Archive? Ecco la mossa legale di Spotify che potrebbe chiudere il sito
Addio al Mac Pro, Apple mette fine a un progetto che non è mai decollato
Panasonic a MCE 2026: la rivoluzione silenziosa (e green) passa per i refrigeranti naturali
Netflix alza la posta: il piano Premium verso quota 25 dollari, l'Europa trema
Nimbus Innovation Awards – Cloud Edition 2026: ecco tutti i vincitori









1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMa senza mettere filtri e paletti,la IA può attivare le armi quando e come vuole,anche su comando di un pazzoide che lo richiede.
Questi risolverebbe il problema di questo pianeta......l'essere umano!
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".