Il Pentagono passa dalle parole ai fatti: Anthropic entra nella blacklist

Il Pentagono passa dalle parole ai fatti: Anthropic entra nella blacklist

Il Dipartimento della Difesa statunitense ha classificato Anthropic come rischio per la supply chain dopo il rifiuto dell'azienda di consentire un uso esteso dei propri modelli AI. La società contesterà la decisione in tribunale mentre partner come Microsoft continuano a integrare Claude nei propri servizi, in attesa di evoluzioni.

di pubblicata il , alle 08:10 nel canale Web
Anthropic
 

Il Dipartimento della Difesa degli Stati Uniti ha designato la società di intelligenza artificiale Anthropic come "rischio per la catena di approvvigionamento", una classificazione che potrebbe limitarne fortemente l'utilizzo all'interno dell'ecosistema della difesa americana. La decisione, annunciata a più riprese nei giorni scorsi, arriva al termine di settimane di tensioni tra l'azienda e il Pentagono riguardo le modalità con cui i modelli di AI sviluppati da Anthropic possono essere impiegati in ambito militare. Nelle scorse ore si era parlato di un riavvicinamento tra le parti per una nuova trattativa, motivo per cui la mossa del Pentagono potrebbe servire ad accelerare i tempi e far cadere le resistenze di Anthropic.

La classificazione impone ora alle aziende e alle agenzie che collaborano con il Dipartimento della Difesa di certificare che i loro sistemi non utilizzino i modelli dell'azienda, tra cui Claude, il chatbot sviluppato da Anthropic. In genere, questo tipo di designazione viene riservato a soggetti legati a paesi considerati avversari strategici degli Stati Uniti.

Alla base del conflitto c'è il rifiuto del CEO di Anthropic, Dario Amodei, di concedere all'esercito pieno accesso ai propri sistemi di intelligenza artificiale per qualsiasi utilizzo. In particolare, l'azienda ha posto limiti espliciti all'impiego dei suoi modelli in due ambiti: la sorveglianza di massa sul territorio statunitense e lo sviluppo di sistemi d'arma completamente autonomi senza supervisione umana.

Dario Amodei, CEO di Anthropic, e Pete Hegseth, Segretario alla Difesa degli Stati Uniti

Il Pentagono, dal canto suo, sostiene che l'utilizzo delle tecnologie AI da parte delle forze armate non debba essere vincolato dalle condizioni imposte da un fornitore privato. Secondo Amodei, invece, il ruolo delle aziende tecnologiche non dovrebbe estendersi alla definizione delle decisioni operative militari, ma può includere la definizione di linee guida etiche sugli ambiti di utilizzo.

Il CEO ha definito la designazione del Dipartimento della Difesa come una misura "punitiva e ritorsiva", annunciando che l'azienda non ha altra scelta se non contestarla legalmente.

Il caso è particolarmente delicato perché i sistemi di Anthropic sono già stati utilizzati in diversi contesti legati alla difesa. I modelli Claude sono stati integrati in sistemi operativi su reti classificate e rappresentano uno degli strumenti utilizzati per gestire grandi volumi di dati nelle operazioni militari.

Secondo alcune ricostruzioni, l'AI di Anthropic sarebbe stata impiegata nell'operazione che ha portato alla cattura di Maduro e anche per analizzare informazioni operative nel contesto delle recenti attività militari statunitensi in Medio Oriente, inclusa la campagna contro l'Iran. Inoltre, Claude è integrato nel Maven Smart System sviluppato da Palantir, una piattaforma utilizzata per analizzare dati provenienti da sensori e sistemi di intelligence.

La classificazione di Anthropic come rischio per la supply chain rappresenta un caso inedito: l'azienda è infatti la prima società tecnologica statunitense a ricevere pubblicamente questa designazione, solitamente applicata a organizzazioni legate a paesi rivali.

Il provvedimento potrebbe creare ripercussioni significative anche per l'operatività dello stesso Pentagono, che negli ultimi anni aveva iniziato a integrare modelli AI avanzati nei propri sistemi. Allo stesso tempo, alcune aziende del settore difesa avrebbero già iniziato a migrare verso modelli alternativi.

Nel frattempo, Microsoft ha dichiarato che continuerà a integrare i modelli Anthropic nei propri prodotti e servizi, fatta eccezione per l'utilizzo da parte del Dipartimento della Difesa. Secondo l'azienda, l'analisi legale della designazione indica che i prodotti Anthropic possono restare disponibili per altri clienti attraverso piattaforme come Microsoft 365, GitHub Copilot e Azure AI Foundry.

La collaborazione tra Microsoft e Anthropic è significativa anche sul piano economico: l'azienda guidata da Satya Nadella ha annunciato un investimento potenziale fino a 5 miliardi di dollari nella startup, mentre Anthropic si è impegnata a utilizzare fino a 30 miliardi di dollari di servizi cloud Azure.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
chichino8406 Marzo 2026, 09:44 #1
supertigrotto06 Marzo 2026, 09:52 #2
E noi useremo Anthropic e Huawei allora.....
Unrue06 Marzo 2026, 14:41 #3
Tanto per cambiare, ruota tutto intorno a capricci di Trump, senza alcuna logica. Se non fai come dice lui la paghi cara.
aled197406 Marzo 2026, 21:32 #4
concordo con Unrue

tira sempre più "una brutta aria" al di la dell'atlantico.... (ex) patria della democrazia ([SIZE="1"]ne erano convinti loro, ma non hanno mai aperto un dizionario[/SIZE] ) e della coca cola, che si sa, fa bene.... con tutte quelle bollicine....

del resto ce l'aveva pur detto anche Vasco... ah no, mi confondo con "per quello che ho da fare..."




gran brutta aria e le previsioni dicono "in peggioramento"


ogni giorno sempre più presente il ricordo de "https://it.wikipedia.org/wiki/La_zona_morta_(film)"][U]la zona morta[/U][/URL]".... film edition


ciao ciao

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^