Google Gemini sfruttato da hacker di Stato per attacchi: la cyber-guerra del futuro passa per l'AI

Google Gemini sfruttato da hacker di Stato per attacchi: la cyber-guerra del futuro passa per l'AI

Secondo il report GTIG di Google, gruppi di hacker sostenuti da Stati utilizzano il modello AI Gemini in tutte le fasi di attacco, dalla ricognizione al post-compromesso. Personalizzazione di tentativi di phishing, ricerca di vulnerabilità e tentativi di estrazione e distillazione del modello tra i rischi segnalati, mentre Google rafforza i controlli di sicurezza.

di pubblicata il , alle 11:51 nel canale Sicurezza
GoogleGemini
 

Il Google Threat Intelligence Group (GTIG) ha pubblicato un post tecnico in cui fa il punto sul crescente impiego di modelli di intelligenza artificiale generativa, in particolare Gemini, da parte di attori avversari per supportare operazioni offensive nel dominio cibernetico. Secondo il report, gruppi associati a Cina, Iran, Corea del Nord e Russia hanno integrato l'uso di Gemini in diverse fasi del ciclo di attacco, da attività di ricognizione a fasi avanzate di compromissione.

Gli APT (Advanced Persistent Threat) stanno sfruttando Gemini per ricognizione e profiling delle vittime, ma anche creare contenuti di social engineering e phishing ad alta qualità, con l'obiettivo di eludere indicatori tradizionali di attacco.

Non solo, gli hacker usano Gemini come supporto allo sviluppo di strumenti malevoli, dalla generazione di codice al debugging, fino alla ricerca di tecniche di evasione. Insomma, queste attività estendono l'uso dell'AI ben oltre semplici compiti di produttività, toccando tutti gli stadi dell'attività offensiva.

Il report documenta anche esempi concreti di malware che interagiscono con API AI. Framework come HONESTCUE utilizzano l'API di Gemini per generare codice C# che costituisce la seconda fase di esecuzione del payload, evidenziando come l'AI venga impiegata per outsourcing funzionale durante la catena d'infezione.

In alcune istanze si osserva anche interesse da parte degli avversari verso capacità "agentiche", potenzialmente in grado di orchestrare più passaggi autonomamente - sebbene tali implementazioni non risultino ancora diffuse nel panorama reale.

Un'altra area di preoccupazione riguarda gli attacchi di estrazione e distillazione del modello (model extraction / knowledge distillation). Qui i malintenzionati usano l'accesso legittimo alle API per porre decine di migliaia di interrogazioni con l'obiettivo di replicare il comportamento di Gemini e "clonare" parti delle sue capacità logiche, riducendo così i costi di sviluppo di modelli analoghi. Questo fenomeno rappresenta una forma di furto di proprietà intellettuale e una sfida commerciale per i provider di AI.

Google ha già preso provvedimenti, disabilitando account e infrastrutture associate ad abusi documentati, oltre a implementare aggiornamenti nei classificatori e nei meccanismi di protezione del modello per mitigare tentativi di abuso.

Al momento, nonostante la forte sperimentazione, il GTIG segnala che non esistono prove che gli attaccanti abbiano sviluppato capacità "dirompenti" grazie all'AI - ossia tecniche completamente nuove basate su LLM che cambino radicalmente il panorama delle minacce. Tuttavia, la tendenza all'integrazione dell'AI nei processi offensivi è giudicata in crescita e destinata a evolversi.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto12 Febbraio 2026, 14:36 #1
Un amico mi ha detto che nel dark web hanno una IA senza "sistemi di sicurezza"
Mi sembra quasi la storia dei virus PC,avremo IA contro altre IA,in pratica abbiamo,anzi non noi,loro,i superstalloni della IA,hanno creato uno strumento che ci complicherà la vita e se non vogliamo complicazioni,dovremmo pagare.....
Unrue12 Febbraio 2026, 16:23 #2
Originariamente inviato da: supertigrotto
Un amico mi ha detto che nel dark web hanno una IA senza "sistemi di sicurezza"
Mi sembra quasi la storia dei virus PC,avremo IA contro altre IA,in pratica abbiamo,anzi non noi,loro,i superstalloni della IA,hanno creato uno strumento che ci complicherà la vita e se non vogliamo complicazioni,dovremmo pagare.....


Non c'è bisogno di andare nel dark web, basta usare Grok.

Comunque strano che Gemini non si accorga che il codice che sta generando può far parte di un attacco.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^