Google Gemini sfruttato da hacker di Stato per attacchi: la cyber-guerra del futuro passa per l'AI
Secondo il report GTIG di Google, gruppi di hacker sostenuti da Stati utilizzano il modello AI Gemini in tutte le fasi di attacco, dalla ricognizione al post-compromesso. Personalizzazione di tentativi di phishing, ricerca di vulnerabilità e tentativi di estrazione e distillazione del modello tra i rischi segnalati, mentre Google rafforza i controlli di sicurezza.
di Manolo De Agostini pubblicata il 12 Febbraio 2026, alle 11:51 nel canale SicurezzaGoogleGemini
Il Google Threat Intelligence Group (GTIG) ha pubblicato un post tecnico in cui fa il punto sul crescente impiego di modelli di intelligenza artificiale generativa, in particolare Gemini, da parte di attori avversari per supportare operazioni offensive nel dominio cibernetico. Secondo il report, gruppi associati a Cina, Iran, Corea del Nord e Russia hanno integrato l'uso di Gemini in diverse fasi del ciclo di attacco, da attività di ricognizione a fasi avanzate di compromissione.
Gli APT (Advanced Persistent Threat) stanno sfruttando Gemini per ricognizione e profiling delle vittime, ma anche creare contenuti di social engineering e phishing ad alta qualità, con l'obiettivo di eludere indicatori tradizionali di attacco.

Non solo, gli hacker usano Gemini come supporto allo sviluppo di strumenti malevoli, dalla generazione di codice al debugging, fino alla ricerca di tecniche di evasione. Insomma, queste attività estendono l'uso dell'AI ben oltre semplici compiti di produttività, toccando tutti gli stadi dell'attività offensiva.
Il report documenta anche esempi concreti di malware che interagiscono con API AI. Framework come HONESTCUE utilizzano l'API di Gemini per generare codice C# che costituisce la seconda fase di esecuzione del payload, evidenziando come l'AI venga impiegata per outsourcing funzionale durante la catena d'infezione.
In alcune istanze si osserva anche interesse da parte degli avversari verso capacità "agentiche", potenzialmente in grado di orchestrare più passaggi autonomamente - sebbene tali implementazioni non risultino ancora diffuse nel panorama reale.
Un'altra area di preoccupazione riguarda gli attacchi di estrazione e distillazione del modello (model extraction / knowledge distillation). Qui i malintenzionati usano l'accesso legittimo alle API per porre decine di migliaia di interrogazioni con l'obiettivo di replicare il comportamento di Gemini e "clonare" parti delle sue capacità logiche, riducendo così i costi di sviluppo di modelli analoghi. Questo fenomeno rappresenta una forma di furto di proprietà intellettuale e una sfida commerciale per i provider di AI.
Google ha già preso provvedimenti, disabilitando account e infrastrutture associate ad abusi documentati, oltre a implementare aggiornamenti nei classificatori e nei meccanismi di protezione del modello per mitigare tentativi di abuso.
Al momento, nonostante la forte sperimentazione, il GTIG segnala che non esistono prove che gli attaccanti abbiano sviluppato capacità "dirompenti" grazie all'AI - ossia tecniche completamente nuove basate su LLM che cambino radicalmente il panorama delle minacce. Tuttavia, la tendenza all'integrazione dell'AI nei processi offensivi è giudicata in crescita e destinata a evolversi.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Dreame vs ECOVACS: 4 robot aspirapolvere super interessanti in offerta su Amazon, da 379€ a 649€
Xiaomi esagera: in sviluppo uno smartphone con batteria da 10.000 mAh
Anche Enel potrebbe avere un suo operatore virtuale di telefonia mobile
Il nuovo OnePlus Nord 6 con batteria da 9.000 mAh ha una data di lancio ufficiale
iPhone 18 Pro, il Face ID sotto al display non funziona: la Dynamic Island resterà
Aumenti in arrivo per ASUS: i computer potrebbero costare fino al 30% in più
L'esperimento BASE del CERN è riuscito a trasportare dell'antimateria
Afeela è morta: chiusa definitivamente la collaborazione tra Sony e Honda per gli EV premium
Intel BOT altera i risultati, Geekbench invita a non fidarsi dei risultati delle CPU che lo supportano
Intel e AMD faticano a soddisfare la domanda consumer: CPU introvabili e attese fino a sei mesi
Microsoft e NVIDIA insieme per dare una scossa allo sviluppo del nucleare: l'IA per accelerare i tempi
Ring rinnova l'intera gamma video: 4K su batteria, PoE e nuovo caricatore solare tra le novità
Recensione Galaxy Buds4 Pro: le cuffie Samsung più belle e intelligenti
Spotify si arricchisce ancora: arriva SongDNA, tutto sulla tua musica preferita









2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMi sembra quasi la storia dei virus PC,avremo IA contro altre IA,in pratica abbiamo,anzi non noi,loro,i superstalloni della IA,hanno creato uno strumento che ci complicherà la vita e se non vogliamo complicazioni,dovremmo pagare.....
Mi sembra quasi la storia dei virus PC,avremo IA contro altre IA,in pratica abbiamo,anzi non noi,loro,i superstalloni della IA,hanno creato uno strumento che ci complicherà la vita e se non vogliamo complicazioni,dovremmo pagare.....
Non c'è bisogno di andare nel dark web, basta usare Grok.
Comunque strano che Gemini non si accorga che il codice che sta generando può far parte di un attacco.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".