Vibe Hacking, Anthropic ammette: gli agenti AI sono uno strumento formidabile nelle mani dei criminali

Vibe Hacking, Anthropic ammette: gli agenti AI sono uno strumento formidabile nelle mani dei criminali

Il nuovo Threat Intelligence Report di Anthropic documenta come attori malevoli sfruttino Claude e agenti AI per campagne di estorsione “vibe‑hacking” su 17 organizzazioni, frodi occupazionali legate alla Corea del Nord e truffe romantiche su larga scala

di pubblicata il , alle 09:11 nel canale Sicurezza
AnthropicClaude
 

Anthropic ha pubblicato il rapporto “Detecting and countering misuse of AI: August 2025” nel quale vengono descritti alcuni casi concreti in cui Claude è stato sfruttato da criminali per attacchi informatici e frodi, non solo come consulente ma anche come operatore attivo in catene operative a più fasi, tipiche degli agenti AI.

Il rapporto spiega che i sistemi agentici vengono usati a scopi offensivi, con l’AI che di fatto abbassa le barriere d'accesso ai crimini sofisticati e viene integrata in tutte le fasi delle operazioni illecite, dalla profilazione delle vittime alla creazione di identità false, fino all’analisi dei dati rubati e al furto di carte.

Anthropic afferma di avere messo in atto misure di sicurezza sofisticate e generalmente efficaci, ma riconosce che cracker, malintenzionati e criminali continuano a cercare modi per aggirare le contromisure. L’azienda risponde a questi tentativi con il ban degli account, nuovi classifier e con la segnalazione alle autorità competenti.

Il caso “vibe‑hacking” con Claude Code

Il report descrive una campagna di estorsione dati su ampia scala, condotta da una gruppo che ha sfruttato Claude Code per attività di ricognizione, sfruttamento, movimento laterale ed esfiltrazione, orchestrando l’operazione e personalizzando le risposte dell’agente con un file operativo “CLAUDE.md”.

Secondo Anthropic, sono stati colpiti almeno 17 enti in un mese, tra sanità, servizi di emergenza, istituzioni religiose e governi; le richieste di riscatto hanno talvolta superato i 500.000 dollari, con messaggi di estorsione “psicologicamente mirati” generati dall’AI.

Jacob Klein, a capo del team Threat Intelligence, parla di “uso più sofisticato di agenti per l’offesa cyber”, mai visto prima d'ora, e sottolinea come ciò che in precedenza richiedeva una squadra di attaccanti ben addestrati e coordinati, ora possa essere eseguito da un singolo attore con l’assistenza di sistemi agentici.

Frodi occupazionali legate alla Corea del Nord

Un’altra indagine mostra come operatori nordcoreani abbiano usato Claude per ottenere e mantenere lavori IT remoti in aziende tech, incluse alcune realtà facenti parti della prestigiosa classifica Fortune 500, con l’obiettivo di generare fondi per i programmi d’arma del regime, abbattendo la soglia di competenze necessarie.

Il supporto dell’AI copre la preparazione dei colloqui, la generazione di risposte tecniche e la produzione di codice e comunicazioni sul lavoro. Anthropic rileva un uso dei propri modelli AI tale da supplire a scarse abilità di programmazione e d’inglese, simulando professionalità grazie all’agente.

La casistica indica attività prevalenti su frontend (React, Vue, Angular), scripting Python e coaching per colloqui, suggerendo quindi l'esistenza di un modello operativo che può essere scalabile.

Truffe romantiche “ad alta EQ”

Il report cita poi l'esistenza di un bot su Telegram con oltre 10.000 utenti mensili che pubblicizza Claude come modello “high EQ” (Emotional Quotient, cioè intelligenza emotiva) per produrre messaggi emotivamente coinvolgenti, aiutando attaccanti non madrelingua a persuadere vittime in USA, Giappone e Corea e a chiedere denaro.

Tra gli esempi mostrati nel rapporto vi è una richiesta su come elargire complimenti ad una persona a partire da un'immagine, segnale di come l’AI venga addestrata sul contesto della vittima per massimizzare la manipolazione relazionale in chat.

Contromisure dichiarate da Anthropic

Per ogni caso, Anthropic afferma di avere bannato gli account associati, introdotto nuove misure di rilevamento, e condiviso informazioni con agenzie governative e forze dell’ordine, inserendo i risultati in un ciclo di miglioramento delle contromisure. L’azienda ribadisce che i casi, pur specifici a Claude, riflettono pattern comuni tra i modelli di frontiera e che la trasparenza serve a rafforzare la difesa dell’ecosistema tramite collaborazione pubblico‑privata.

Il report in generale è insolitamente trasparente e sincero, mostrando come nonostante l'impegno e gli sforzi a mantenere in essere tutte le accortezze necessarie per assicurare un uso responsabile ed etico dell'AI, vi siano comunque lacune e punti di debolezza che i criminali possono sfruttare.

La novità non è solo l’uso di chatbot per consigli tecnici, ma l’impiego di agenti AI per eseguire operazioni complesse dall’inizio alla fine, integrandosi nella catena d’attacco e automatizzando compiti prima riservati a team esperti.

Ciò implica superfici d’attacco più ampie, oppurtunità di scalabilità per singoli attori e una velocità operativa che mette sotto pressione i tempi di rilevamento e risposta difensiva in organizzazioni pubbliche e private.

Il report invita a rafforzare le attività di monitoraggio, lo scambio di informazioni sulle minacce e l’evoluzione continua dei filtri comportamentali sugli agenti AI, sottolineando la grande capacità di adattamento dei malintenzionati.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^