Ultimatum del Pentagono ad Anthropic: vogliamo il controllo totale sull'AI, avete pochi giorni

Ultimatum del Pentagono ad Anthropic: vogliamo il controllo totale sull'AI, avete pochi giorni

Il Dipartimento della Difesa USA ha imposto ad Anthropic una scadenza per accettare l'uso esteso dei propri modelli AI in ambito militare. In caso contrario, minaccia di invocare il Defense Production Act e designare l'azienda come rischio per la supply chain.

di pubblicata il , alle 13:11 nel canale Web
Anthropic
 

Il rapporto tra il Dipartimento della Difesa degli Stati Uniti e Anthropic è sempre più complicato. Vi avevamo già spiegato delle tensioni sull'uso del modello AI Claude da parte del Pentagono e, a distanza di non molti giorni, il clima non si è per nulla disteso. Il Segretario alla Difesa Pete Hegseth avrebbe imposto alla società un ultimatum: accettare le condizioni d'uso richieste dall'amministrazione entro venerdì pomeriggio oppure affrontare la risoluzione del contratto e ulteriori misure coercitive.

Al centro del confronto c'è la possibilità per il Pentagono di utilizzare senza restrizioni i modelli sviluppati dall'azienda, inclusi tutti i casi d'uso ritenuti legali nell'ambito della sicurezza nazionale. Anthropic, guidata dal CEO Dario Amodei, ha ribadito nel corso di un incontro avvenuto martedì le proprie "linee rosse": nessun impiego in operazioni autonome in cui l'intelligenza artificiale prenda decisioni finali di targeting senza intervento umano e nessun utilizzo per sorveglianza domestica di massa.

Secondo fonti vicine ai colloqui, il tono della riunione sarebbe stato cordiale, ma fermo sui rispettivi punti. Anthropic ha dichiarato di voler proseguire in "conversazioni in buona fede" per garantire che i propri modelli possano supportare la missione di sicurezza nazionale nel rispetto dei limiti tecnici e di affidabilità dichiarati dall'azienda.

Dal canto suo, il Pentagono sostiene che la disputa non riguardi né l'impiego di armi autonome né la sorveglianza di massa, e che ogni utilizzo rientri nel perimetro della legge. In caso di mancato accordo entro la scadenza fissata - indicata alle 17:01 di venerdì - il Dipartimento della Difesa potrebbe invocare il Defense Production Act, normativa dell'era della Guerra Fredda che conferisce al governo ampi poteri sulle aziende private in situazioni di emergenza nazionale. Lo stesso strumento è stato utilizzato durante la pandemia per accelerare la produzione di dispositivi medici e vaccini.

Parallelamente, Hegseth avrebbe minacciato di designare Anthropic come "supply chain risk", una classificazione che in genere comporta l'interruzione dei rapporti contrattuali con il governo e con i suoi fornitori. Resta tuttavia poco chiaro come questa eventuale etichetta possa conciliarsi con l'uso del Defense Production Act per imporre la collaborazione di Anthropic.

La società di Dario Amodei è tra le quattro società AI che la scorsa estate hanno ottenuto contratti con il Pentagono fino a 200 milioni di dollari ciascuna. Oltre ad essa figurano OpenAI, Google e xAI. L'azienda è nota per il chatbot Claude e per un posizionamento pubblico fortemente orientato alla sicurezza, con la pubblicazione periodica di report sui rischi e sulle vulnerabilità dei propri modelli. Proprio nelle scorse da Anthropic si è levato il grido contro le aziende cinesi che cercano di "copiare" Claude tramite la tecnica della "distillazione".

L'attenzione sui rapporti tra Anthropic e il comparto difesa è aumentata dopo indiscrezioni secondo cui il modello Claude sarebbe stato utilizzato in un'operazione militare che ha portato alla cattura dell'ex presidente venezuelano Nicolás Maduro lo scorso gennaio, tramite un contratto con partner industriali attivi nell'analisi dei dati. L'episodio avrebbe contribuito a incrinare la fiducia tra le parti.

Per il Pentagono, una volta fornita la tecnologia, l'azienda non dovrebbe avere voce in capitolo sulle modalità d'impiego. Per Anthropic, invece, il rispetto di determinati limiti operativi è parte integrante della propria strategia e della responsabilità aziendale.

L'esito dell'ultimatum potrebbe ridefinire l'equilibrio del rapporto tra Big Tech e apparato militare statunitense: da una parte la necessità di dotare le forze armate di strumenti AI avanzati, dall'altra la volontà delle aziende di mantenere controllo e coerenza rispetto ai principi dichiarati.

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7725 Febbraio 2026, 14:58 #1
Ma dai. Che strano.. mai avrei pensato che il Pentagono potesse volere il pieno e totale controllo sulla IA per fargli fare lo stracazzo che vuole senza rendere conto a nessuno.

Sta roba era scritta a cratteri cubitali in cielo il girno stesso che la IA ha visto la luce.
Se non sarà Anthropic sarà qualcun altro, ma la strada è segnata.
Cfranco25 Febbraio 2026, 15:04 #2
"il Pentagono sostiene che la disputa non riguardi né l'impiego di armi autonome né la sorveglianza di massa" ... però non metteteci queste regole nel contratto oppure salta tutto
supertigrotto25 Febbraio 2026, 15:04 #3
Quindi se lo fa la Cina o c'è il sospetto (caso Huawei,Dji etc) si blocca tutto e si cerca di azzoppare le aziende,se lo fa l'America va bene giusto?
Ci sono già state collaborazioni fra dipartimento dell' offesa Usa e le aziende tech americane ma tutti zitti,nessuno può protestare, specialmente all' estero.
A questo punto,se fossi il cattivone cinese di turno,cercherei di avvelenare le varie IA che usa il dipartimento dell' offesa statunitense.
Unrue25 Febbraio 2026, 15:41 #4
Ma esattamente Anthropic come intenderebbe controllare il Pentagono e come userà i propri modelli?
alexfri25 Febbraio 2026, 19:02 #5
Originariamente inviato da: supertigrotto
Quindi se lo fa la Cina o c'è il sospetto (caso Huawei,Dji etc) si blocca tutto e si cerca di azzoppare le aziende,se lo fa l'America va bene giusto?
Ci sono già state collaborazioni fra dipartimento dell' offesa Usa e le aziende tech americane ma tutti zitti,nessuno può protestare, specialmente all' estero.
A questo punto,se fossi il cattivone cinese di turno,cercherei di avvelenare le varie IA che usa il dipartimento dell' offesa statunitense.


Non va tutto bene ma va sicuramente meglio, conta che a parte gli svitati MAGA negli stato uniti hanno la nostra stessa cultura, GLI ALTRI NO. Quindi si sceglie il male minore che ti piaccio o no (meno male).
s12a25 Febbraio 2026, 19:08 #6
Originariamente inviato da: Unrue
Ma esattamente Anthropic come intenderebbe controllare il Pentagono e come userà i propri modelli?


Addestrando Claude per rifiutare richieste come con quelli disponibili al pubblico. Ma ti immagini se durante una qualche operazione militare il modello si rifiuta di rispondere perché la richiesta viola le linee guida di Anthropic? Pensa se devono perdere tempo ad usare prompt "jailbreak" per farlo funzionare a dovere.
marcram26 Febbraio 2026, 09:03 #7
Originariamente inviato da: Redazione di Hardware Upgrade
Il Dipartimento della Difesa USA...
...tra il Dipartimento della Difesa degli Stati Uniti e Anthropic...
...Il Segretario alla Difesa Pete...
...il Dipartimento della Difesa potrebbe...

Ricordiamoci che adesso si chiama "Dipartimento della Guerra"...
Usiamo i nomi giusti, perchè fanno la differenza...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^