Google Gemini sfruttato da hacker di Stato per attacchi: la cyber-guerra del futuro passa per l'AI
Secondo il report GTIG di Google, gruppi di hacker sostenuti da Stati utilizzano il modello AI Gemini in tutte le fasi di attacco, dalla ricognizione al post-compromesso. Personalizzazione di tentativi di phishing, ricerca di vulnerabilità e tentativi di estrazione e distillazione del modello tra i rischi segnalati, mentre Google rafforza i controlli di sicurezza.
di Manolo De Agostini pubblicata il 12 Febbraio 2026, alle 11:51 nel canale SicurezzaGoogleGemini
Il Google Threat Intelligence Group (GTIG) ha pubblicato un post tecnico in cui fa il punto sul crescente impiego di modelli di intelligenza artificiale generativa, in particolare Gemini, da parte di attori avversari per supportare operazioni offensive nel dominio cibernetico. Secondo il report, gruppi associati a Cina, Iran, Corea del Nord e Russia hanno integrato l'uso di Gemini in diverse fasi del ciclo di attacco, da attività di ricognizione a fasi avanzate di compromissione.
Gli APT (Advanced Persistent Threat) stanno sfruttando Gemini per ricognizione e profiling delle vittime, ma anche creare contenuti di social engineering e phishing ad alta qualità, con l'obiettivo di eludere indicatori tradizionali di attacco.

Non solo, gli hacker usano Gemini come supporto allo sviluppo di strumenti malevoli, dalla generazione di codice al debugging, fino alla ricerca di tecniche di evasione. Insomma, queste attività estendono l'uso dell'AI ben oltre semplici compiti di produttività, toccando tutti gli stadi dell'attività offensiva.
Il report documenta anche esempi concreti di malware che interagiscono con API AI. Framework come HONESTCUE utilizzano l'API di Gemini per generare codice C# che costituisce la seconda fase di esecuzione del payload, evidenziando come l'AI venga impiegata per outsourcing funzionale durante la catena d'infezione.
In alcune istanze si osserva anche interesse da parte degli avversari verso capacità "agentiche", potenzialmente in grado di orchestrare più passaggi autonomamente - sebbene tali implementazioni non risultino ancora diffuse nel panorama reale.
Un'altra area di preoccupazione riguarda gli attacchi di estrazione e distillazione del modello (model extraction / knowledge distillation). Qui i malintenzionati usano l'accesso legittimo alle API per porre decine di migliaia di interrogazioni con l'obiettivo di replicare il comportamento di Gemini e "clonare" parti delle sue capacità logiche, riducendo così i costi di sviluppo di modelli analoghi. Questo fenomeno rappresenta una forma di furto di proprietà intellettuale e una sfida commerciale per i provider di AI.
Google ha già preso provvedimenti, disabilitando account e infrastrutture associate ad abusi documentati, oltre a implementare aggiornamenti nei classificatori e nei meccanismi di protezione del modello per mitigare tentativi di abuso.
Al momento, nonostante la forte sperimentazione, il GTIG segnala che non esistono prove che gli attaccanti abbiano sviluppato capacità "dirompenti" grazie all'AI - ossia tecniche completamente nuove basate su LLM che cambino radicalmente il panorama delle minacce. Tuttavia, la tendenza all'integrazione dell'AI nei processi offensivi è giudicata in crescita e destinata a evolversi.










Ecovacs DEEBOT T90 PRO OMNI: ora il rullo di lavaggio è ampio
Recensione Samsung Galaxy S26 Ultra: finalmente qualcosa di nuovo
Diablo II Resurrected: il nuovo DLC Reign of the Warlock
DLSS 5: quali GPU lo supporteranno? Ecco cosa sappiamo al momento
NVIDIA porta l'AI nello spazio: presentato il Vera Rubin Space Module per i datacenter orbitali
NVIDIA Vera: la CPU per l'AI agentica promette +50% di prestazioni e maggiore efficienza energetica
Dell rinnova la sua gamma di workstation: arrivano i modelli Pro Precision e Pro Max with GB300
NVIDIA DLSS 5 arriverà in autunno ed è pronto a slogarvi la mascella: vedere per credere
Intel Xeon 6 con P-core è la CPU al centro dei sistemi NVIDIA DGX Rubin NVL8
Telepass e TIM: la mobilità integrata approda in oltre 1.900 punti vendita
Deep Tech Revolution: le cinque startup che lavoreranno nei laboratori di Area Science Park
Leapmotor, sostenuta da Stellantis, raggiunge per la prima volta l'utile annuo
Isar Aerospace e Astroscale stringono un accordo per lanciare il satellite ELSA-M per la rimozione dei detriti spaziali
Donut Lab, test di ricarica con Verge TS: le batterie a stato solido si caricano in 12 minuti
Polestar, arriva un nuovo finanziamento azionario da 300 milioni di dollari
Friggitrice ad aria, tutto quello che devi sapere prima di sceglierla (e dove trovarla)
BYD lancia la nuova campagna per il brand Denza, ma cosa significa esattamente?









2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMi sembra quasi la storia dei virus PC,avremo IA contro altre IA,in pratica abbiamo,anzi non noi,loro,i superstalloni della IA,hanno creato uno strumento che ci complicherà la vita e se non vogliamo complicazioni,dovremmo pagare.....
Mi sembra quasi la storia dei virus PC,avremo IA contro altre IA,in pratica abbiamo,anzi non noi,loro,i superstalloni della IA,hanno creato uno strumento che ci complicherà la vita e se non vogliamo complicazioni,dovremmo pagare.....
Non c'è bisogno di andare nel dark web, basta usare Grok.
Comunque strano che Gemini non si accorga che il codice che sta generando può far parte di un attacco.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".