Scontro sull'AI militare: Trump bandisce Anthropic, Altman firma con il Pentagono
Dopo il rifiuto di Anthropic di concedere accesso militare esteso ai modelli Claude, il presidente Donald Trump ha annunciato lo stop all'uso della tecnologia nelle agenzie federali. Intanto Sam Altman ha siglato un accordo con il Dipartimento della Difesa. Oltre 360 dipendenti di Google e OpenAI sostengono la posizione di Anthropic.
di Manolo De Agostini pubblicata il 28 Febbraio 2026, alle 14:01 nel canale WebAnthropicOpenAIGoogle
Dopo il "no" di Anthropic alle richieste del Dipartimento della Guerra (o Difesa) USA e lo scadere dell'ultimatum, il presidente degli Stati Uniti Donald Trump ha dichiarato che ordinerà a tutte le agenzie federali di smettere immediatamente di utilizzare la tecnologia dello sviluppatore del modello Claude.
"Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!", ha scritto Trump in un post su Truth Social. Come noto, Anthropic è coinvolta in una controversia con la Casa Bianca, dopo essersi rifiutata di concedere all'esercito statunitense libero accesso ai propri strumenti di intelligenza artificiale. Due i punti critici: il possibile uso dell'IA per la sorveglianza domestica di massa e le armi completamente autonome. Il rifiuto ha portato il segretario alla Difesa degli Stati Uniti Pete Hegseth a dichiarare che considera Anthropic un "rischio per la supply chain".
Questa etichetta renderebbe Anthropic la prima azienda statunitense ad aver mai ricevuto pubblicamente un trattamento del genere. L'azienda ha affermato che "contesterà in tribunale qualsiasi designazione" di quel genere.
Tonight, we reached an agreement with the Department of War to deploy our models in their classified network.
— Sam Altman (@sama) February 28, 2026
In all of our interactions, the DoW displayed a deep respect for safety and a desire to partner to achieve the best possible outcome.
AI safety and wide distribution of…
Nel frattempo, c'è chi invece è riuscito a trovare un'intesa con l'amministrazione statunitense. Il CEO di OpenAI, Sam Altman, ha dichiarato di aver trovato un accordo con il Dipartimento della Difesa per l'utilizzo dei suoi modelli di intelligenza artificiale.
"Stasera, abbiamo raggiunto un accordo con il Dipartimento della Guerra per distribuire i nostri modelli nella loro rete classificata. In tutte le nostre interazioni, il DoW ha dimostrato un profondo rispetto per la sicurezza e il desiderio di collaborare per ottenere il miglior risultato possibile. La sicurezza dell'IA e la vasta distribuzione dei benefici sono il cuore della nostra missione".
"Due dei nostri principi di sicurezza più importanti sono i divieti sulla sorveglianza di massa interna e la responsabilità umana per l'uso della forza, inclusi i sistemi di armi autonome. Il DoW è d'accordo con questi principi, li riflette nella legge e nelle politiche, e li abbiamo inseriti nel nostro accordo".
"Costruiremo anche salvaguardie tecniche per garantire che i nostri modelli si comportino come dovrebbero, cosa che il DoW voleva anch'esso. Distribuiremo FDE per aiutare con i nostri modelli e per garantire la loro sicurezza, e distribuiremo solo su reti cloud. Stiamo chiedendo al DoW di offrire gli stessi termini a tutte le aziende di IA, che a nostro avviso tutti dovrebbero essere disposti ad accettare".
"Abbiamo espresso il nostro forte desiderio di vedere un allentamento delle tensioni, con l'abbandono delle azioni legali e governative a favore di accordi ragionevoli. Rimaniamo impegnati a servire l'intera umanità nel modo migliore possibile. Il mondo è un luogo complicato, disordinato e a volte pericoloso".

Più di 360 dipendenti di Google e OpenAI sostengono Anthropic contro l'uso militare estensivo dell'AI
Poche ore prima del post di Altman, oltre 300 dipendenti di Google e più di 60 di OpenAI hanno firmato una lettera aperta indirizzata ai vertici delle rispettive aziende, invitandoli a sostenere la posizione di Anthropic. I firmatari chiedono ai propri leader di "mettere da parte le loro divergenze" e unirsi nel "continuare a rifiutare le attuali richieste del Dipartimento della Guerra di autorizzare l'uso dei nostri modelli per la sorveglianza di massa interna e l'uccisione autonoma di persone senza supervisione umana".
La lettera evidenzia il timore che il Dipartimento della Difesa possa tentare una strategia negoziale separata con ciascuna azienda, facendo leva sul rischio che un concorrente possa cedere alle richieste governative. L'obiettivo dichiarato dai dipendenti è creare trasparenza e solidarietà interna al settore per evitare divisioni.
Al momento, i vertici di Google e OpenAI non hanno rilasciato risposte formali alla lettera, ma il Chief Scientist Jeff Dean di DeepMind, a titolo personale, ha espresso critiche verso la sorveglianza governativa di massa, richiamando i principi costituzionali e i rischi di abusi politici o discriminatori.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Google risolve il problema della memoria negli LLM: TurboQuant fa girare gli stessi modelli con cinque volte meno RAM
Un altro colpo alle auto elettriche: Panasonic taglia le batterie EV in favore di quelle per data center IA
Core Ultra 9 290K Plus: Intel conferma che non arriverà sul mercato
Addio connettori fusi? MSI promette di fermare tutto prima del disastro con GPU Safeguard+
Basta brani fake su Spotify: la nuova funzione dà controllo totale agli artisti
OPPO Find X9 Ultra: come funziona il rivoluzionario zoom 10x Hasselblad
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi









28 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoVa bene rallentare il più possibile, ma è una cosa (purtroppo) inevitabile.
...e comunque per quanto alla gente non piaccia l'America, è sempre meglio che ci arrivi prima l'America che non la Cina o la Russia, poi vedete voi(Che comunque ci arriveranno eh, è solo questione di chi prima e chi dopo)
Una cosa del genere non sarebbe mai successa in Cina, lì è impensabile che un'azienda possa permettersi di dire "No" al governo, sarebbe successo un casino, e nessuno lo avrebbe saputo, tempo un paio di settimane e l'azienda sarebbe stata completamente decapitata e i manager / CEO sarebbero stati sostituiti da dipendenti del governo.
Edit:
Alcune correzioni ortografiche perché sennò la gente si arrabbia
Tra l'altro ho scoperto ora che sono di origini italiane
Tra l'altro ho scoperto ora che sono di origini italiane
Anche io da quando è uscito il modello 4.6 Sonnet uso esclusivamente Claude per i miei script
si ma finisce che Chatgpt il missile ICBM lo spara contro Trump, come Willy il coyote
Io uso Opus 4.6, probabilmente potrebbe bastare anche Sonnet ma non ho mai avuto la voglia di sbattermi per vedere che differenza c'è
Solo che gli EMP non nucleari su vasta scala esistono solo nei videogiochi.
Anthropic aveva firmato un contratto molto chiaro e per ragioni molto concrete (es.: senza un "human in the loop" basta una prompt injection o una cue injection ed un LLM ti fragga le forze amiche ed ignora quelle nemiche).
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".