Pentagono e Anthropic ai ferri corti: in bilico il contratto da 200 milioni per l'uso militare di Claude
Il Dipartimento della Difesa USA ha messo "sotto revisione" il rapporto con Anthropic per divergenze sui limiti d'uso militare dei modelli Claude. In discussione il contratto da 200 milioni di dollari: il Pentagono chiede impiego senza restrizioni legali, l'azienda vuole invece dei paletti ben precisi.
di Manolo De Agostini pubblicata il 19 Febbraio 2026, alle 10:51 nel canale WebAnthropic
Il rapporto tra il Dipartimento della Difesa degli Stati Uniti e Anthropic si è fatto difficile, tanto da entrare in una fase di cosiddetta "revisione formale". Vi sono, infatti, divergenze sulle modalità di utilizzo dei modelli di intelligenza artificiale sviluppati da Anthropic.
Al centro della disputa vi è il contratto quinquennale da 200 milioni di dollari assegnato lo scorso anno, oggi potenzialmente a rischio qualora non si trovasse un'intesa sulle condizioni d'impiego future.
La startup, fondata nel 2021 da ex ricercatori di OpenAI, è nota per la famiglia di modelli linguistici Claude. Proprio Claude risulta attualmente l'unico sistema AI di un'azienda privata già distribuito sulle reti classificate del Dipartimento della Difesa, con versioni personalizzate destinate a clienti dell'ambito sicurezza nazionale.

Il nodo principale riguarda l'estensione dei casi d'uso consentiti. Il DoD, attraverso il sottosegretario alla Difesa per la ricerca e l'ingegneria Emil Michael, ha ribadito l'intenzione di poter utilizzare i modelli "per tutti gli impieghi leciti", senza ulteriori limitazioni contrattuali. L'amministrazione teme che restrizioni ex ante possano impedire l'utilizzo degli strumenti in situazioni urgenti od operative, introducendo incertezza tecnica e giuridica.
Anthropic, dal canto suo, chiede garanzie formali affinché i propri modelli non vengano impiegati in due ambiti specifici: sistemi d'arma completamente autonomi e sorveglianza di massa dei cittadini statunitensi. Secondo il Pentagono, tuttavia, la definizione di tali confini lascerebbe una "zona grigia" interpretativa che renderebbe complessa la gestione operativa e la pianificazione su larga scala.
Le tensioni si sono intensificate dopo che Claude sarebbe stato utilizzato, tramite integrazione con Palantir Technologies, in un'operazione in Venezuela culminata con la cattura del presidente Nicolás Maduro. Le modalità tecniche di impiego non sono state rese pubbliche, ma l'episodio ha riportato al centro dell'attenzione il ruolo dell'AI in contesti operativi sensibili.
Il confronto avviene mentre altri grandi operatori – tra cui Google e xAI – hanno ottenuto contratti fino a 200 milioni di dollari ciascuno e accettato l'utilizzo dei propri modelli per tutti gli impieghi leciti sui sistemi non classificati del Dipartimento della Difesa; almeno un'azienda avrebbe esteso tale disponibilità anche a tutti i sistemi.
In caso di mancato accordo, il DoD potrebbe arrivare a designare Anthropic come "supply chain risk", un'etichetta solitamente riservata ad attori stranieri considerati problematici. Una simile classificazione obbligherebbe fornitori e appaltatori a certificare il non utilizzo dei modelli Claude, con impatti significativi sul posizionamento dell'azienda nel mercato governativo.
Le parti hanno dichiarato di essere impegnate in colloqui "produttivi e in buona fede". L'esito delle negoziazioni definirà non solo il futuro del contratto da 200 milioni di dollari, ma anche il quadro di riferimento per l'impiego dell'intelligenza artificiale generativa nei contesti militari statunitensi.
Sul piano finanziario, Anthropic ha recentemente chiuso un round da 30 miliardi di dollari che porta la valutazione a 380 miliardi, più che raddoppiata rispetto alla raccolta precedente.










Deep Tech Revolution: così Area Science Park apre i laboratori alle startup
HP OMEN MAX 16 con RTX 5080: potenza da desktop replacement a prezzo competitivo
Recensione Google Pixel 10a, si migliora poco ma è sempre un'ottima scelta
Il nuovo MacBook Neo ha una memoria SSD molto più lenta rispetto a quella degli Air
Xbox Project Helix, le prime specifiche della nuova ibrida PC/console: agli sviluppatori dal 2027
Annunci pubblicitari sulla TV quando cambi canale: l'ira di alcuni possessori di televisori Hisense
Prezzi aumentati del 50% durante la notte: il CEO di Phison lancia l'allarme sulla carenza di NAND
Sconti studiati per singolo utente: Sony testa i prezzi dinamici su PlayStation Store
Addio alla Kia Niro EV, il crossover sarà commercializzato solo in versione ibrida con motore 1.6 benzina
Apple crede nel suo iPhone Fold: la produzione iniziale sarà più alta del previsto
Fortnite, un nuovo listino per i pacchetti di V-buck: serve a 'coprire le spese'
Ecco i nuovi Sonos Play ed Era 100 SL: due nuovi speaker per rilanciare l'ecosistema audio
Razer svela il futuro del gaming potenziato con agenti AI e un'esperienza multisensoriale
Tre robot Narwal in offerta: pulizia automatica a prezzi mai visti su Amazon e sul sito ufficiale
Gracenote denuncia OpenAI: ChatGPT addestrato con metadati rubati su film e serie TV
Microsoft AI Tour Milano: dall'efficienza all'innovazione, così l'IA cambia il business
Asus ExpertBook Ultra: Intel Core Ultra X9 e display da 1.400 nit per professionisti in movimento









1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMa senza mettere filtri e paletti,la IA può attivare le armi quando e come vuole,anche su comando di un pazzoide che lo richiede.
Questi risolverebbe il problema di questo pianeta......l'essere umano!
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".