OpenClaw sotto attacco: i malware infostealer puntano sugli agenti IA locali
Un'infezione reale di malware infostealer ha esfiltrato per la prima volta l'intero ambiente di configurazione di OpenClaw, rivelando quanto gli assistenti IA agentici possano diventare un nuovo bersaglio ad alto impatto per i cybercriminali
di Andrea Bai pubblicata il 17 Febbraio 2026, alle 15:29 nel canale SicurezzaOpenClaw, framework di assistente IA agentico che può operare in locale sul PC dell'utente, è stato coinvolto nel primo caso documentato di furto dei suoi file di configurazione da parte di un malware infostealer. Secondo quanto riportato da Hudson Rock, la compromissione ha portato all'esfiltrazione di token, chiavi crittografiche e file di memoria in grado, potenzialmente, di permettere la manipolazione completa e lo sfruttamento dell'identità digitale della vittima.
OpenClaw, conosciuto anche come ClawdBot e MoltBot, è un framework agentico che mantiene una configurazione persistente e un ambiente di memoria sul sistema locale, con accesso a file, email, app di comunicazione e servizi online che l'utente ha deciso di collegare. Proprio questa integrazione profonda con la sfera personale e professionale ha portato diversi ricercatori a indicarlo come un nuovo obiettivo primario per gli infostealer, che tradizionalmente prendono di mira soprattutto a credenziali di browser e applicazioni.
Cosa è stato rubato: token, chiavi private e "soul" dell'agente
Nel caso analizzato, Hudson Rock ha individuato un'infezione attribuita con alta probabilità a una variante del noto infostealer Vidar, attivo dal 2018 e ampiamente utilizzato nello scenario del cybercrime. Il malware non conteneva un modulo specifico per OpenClaw, ma eseguiva una routine di furto generica che scandaglia il sistema alla ricerca di file e directory sensibili, basandosi su parole chiave come "token" e "private key" e su percorsi come la cartella nascosta ".openclaw".
Tra i file sottratti figurano "openclaw.json", che include l'email dell'utente, il percorso del workspace e un token di autenticazione ad alta entropia per il gateway dell'agente. Secondo gli analisti, un token di questo tipo potrebbe consentire a un attaccante di collegarsi a un'istanza locale di OpenClaw esposta in rete o impersonare il client nelle richieste verso il gateway dell'assistente.
Un altro file critico è "device.json", contenente sia la chiave pubblica sia la chiave privata (publicKeyPem e privateKeyPem) utilizzate per il pairing e la firma dei messaggi. La disponibilità della chiave privata permette in teoria di firmare comunicazioni come se provenissero dal dispositivo legittimo, con il rischio di aggirare controlli come i "Safe Device check" e accedere a log cifrati o servizi cloud associati.

Particolarmente delicati sono poi i file "soul.md" e quelli di memoria come "AGENTS.md" e "MEMORY.md", che definiscono il comportamento dell'agente e conservano contesti persistenti. In questi documenti possono comparire attività quotidiane, messaggi privati, eventi di calendario e altre informazioni personali che, se correlate, contribuiscono a costruire un quadro molto dettagliato della vita digitale della vittima. Hudson Rock sottolinea che, nel caso analizzato, l'insieme di token, chiavi e memoria potrebbe abilitare una compromissione totale dell'identità digitale dell'utente.
Dagli account ai "souls" degli agenti IA: un cambio di paradigma per gli infostealer
Per i ricercatori coinvolti, questo incidente rappresenta una tappa significativa nell'evoluzione degli infostealer, che stanno passando dalla semplice raccolta di credenziali archiviate nei browser al furto delle identità operative degli assistenti IA personali. Hudson Rock aveva già indicato OpenClaw come "nuovo obiettivo primario" per questo tipo di malware, proprio per la concentrazione di dati sensibili e segreti di accesso che l'agente gestisce e memorizza.
In parallelo, altri rapporti hanno messo in luce la crescente superficie d'attacco attorno all'ecosistema OpenClaw, che comprende skill di terze parti, repository pubblici e servizi collegati. Ricerche recenti descrivono campagne di supply chain attack che sfruttano skill malevoli su ClawHub e siti clone per distribuire malware, oltre a problematiche legate a piattaforme correlate come Moltbook, forum "solo IA" in cui gli account degli agenti non possono essere cancellati una volta creati.
La combinazione di accesso capillare ai dati dell'utente e capacità di agire in autonomia rende questi agenti una possibile "amplificazione" dell'attacco, con scenari che vanno dall'abuso di servizi collegati fino all'uso dell'agente compromesso come veicolo per nuove intrusioni. Per questo motivo diversi vendor di sicurezza hanno iniziato a pubblicare linee guida specifiche per la protezione delle istanze OpenClaw esposte e a proporre soluzioni di hardening, controllo degli accessi e segregazione delle attività ad alto rischio.
Implicazioni per utenti e aziende che adottano agenti IA
Gli incidenti che coinvolgono OpenClaw e nanobot mostrano come gli agenti IA personali e i framework agentici stiano diventando parte integrante delle infrastrutture IT e dei flussi di lavoro aziendali, e non più semplici strumenti sperimentali. La presenza di API key, token di accesso, chiavi crittografiche e log di attività all'interno dei loro ambienti di esecuzione rende necessario applicare a questi sistemi lo stesso livello di controllo e di hardening già adottato per applicazioni critiche e servizi esposti.
Per chi valuta o utilizza soluzioni di questo tipo, le raccomandazioni dei ricercatori convergono su alcuni punti chiave: evitare l'esposizione diretta delle istanze su Internet senza autenticazione robusta, limitare i permessi concessi all'agente, monitorare l'uso di skill di terze parti e mantenere aggiornati framework e componenti di integrazione. I casi riportati indicano che gli attori malevoli stanno già adattando i propri strumenti per sfruttare le nuove opportunità offerte dall'adozione degli agenti IA, rendendo la sicurezza di questi sistemi una priorità emergente per utenti finali e aziende.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
L'esperimento BASE del CERN è riuscito a trasportare dell'antimateria
Afeela è morta: chiusa definitivamente la collaborazione tra Sony e Honda per gli EV premium
Intel BOT altera i risultati, Geekbench invita a non fidarsi dei risultati delle CPU che lo supportano
Intel e AMD faticano a soddisfare la domanda consumer: CPU introvabili e attese fino a sei mesi
Microsoft e NVIDIA insieme per dare una scossa allo sviluppo del nucleare: l'IA per accelerare i tempi
Ring rinnova l'intera gamma video: 4K su batteria, PoE e nuovo caricatore solare tra le novità
Recensione Galaxy Buds4 Pro: le cuffie Samsung più belle e intelligenti
Spotify si arricchisce ancora: arriva SongDNA, tutto sulla tua musica preferita
I digital twin di AVEVA a supporto delle AI Factory di NVIDIA
Iliad non si ferma: clienti in crescita sia sul mobile sia per la fibra
XuanTie C950, il chip IA di Alibaba basato su RISC-V sarà prodotto a 5 nm
Volkswagen richiama 94.000 auto elettriche per rischio incendio nei moduli batteria
Le nuove LaserJet di HP portano la crittografia quantum-resistant su tutte le stampanti, dalle Pro alle Enterprise
FSR 4 gira sulla GPU di PS5 Pro, ma non sulle vecchie Radeon: AMD cosa aspetti?









4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoCapisco che fa tanto futuristico dare il computer in mano ad un'IA, ma ora come ora e' una pazzia sotto ogni punto di vista, gia' averla integrata pesantemente in un SO la vedo grigia, magari stanno aspettando che sia bene implementata per poi inviarle tramite email siti web preparati ed altro per riempirla di comandi non voluti (sempre leggendo in giro).
Poi se non sbaglio non e' la prima volta che sono attaccatti, l'ultima volta (se era l'ultima volta), nei 10 secondi in cui il precedente sito web aveva cambiato nome (perche' hanno cambiato nome all'AI) e' restata senza proprietari ed altri immediatamente lo hanno acquistato per caricarlo di codice malevolo, in modo tale che chi si collegava, aggiornava ecc.. ancora col vecchio nome venivano infettati. Mi sembra di averlo letto sul sito di cybersecurity dei Red
Capisco che fa tanto futuristico dare il computer in mano ad un'IA, ma ora come ora e' una pazzia sotto ogni punto di vista, gia' averla integrata pesantemente in un SO la vedo grigia, magari stanno aspettando che sia bene implementata per poi inviarle tramite email siti web preparati ed altro per riempirla di comandi non voluti (sempre leggendo in giro).
Poi se non sbaglio non e' la prima volta che sono attaccatti, l'ultima volta (se era l'ultima volta), nei 10 secondi in cui il precedente sito web aveva cambiato nome (perche' hanno cambiato nome all'AI) e' restata senza proprietari ed altri immediatamente lo hanno acquistato per caricarlo di codice malevolo, in modo tale che chi si collegava, aggiornava ecc.. ancora col vecchio nome venivano infettati. Mi sembra di averlo letto sul sito di cybersecurity dei Red
Dove lavoro attualmente la parola AI è ovunque: il punto è che la maggior parte di chi la pronuncia non ha idea di cosa sia. E tra questi mi ci metto anche io che, anche non pronunciandola ogni 3x2, mi rendo conto che è una rivoluzione, perchè lo è, ma lungi dall'essere perfetta.
MA
Personalmente la uso come uno strumento e non mi sognerei mai di dare dati sensibili, men che meno accesso ai miei files, ad una AI della quale non si sanno bene i "confini" e i constraints.
Per il momento studio e aspetto, ma per ora vedo che questa AI sta aiutando più i red che i blu..
Gli LLM non hanno un vero concetto di vero o falso o di reale o immaginario ed ancor meno di sicurezza (sia nel senso di safety che di security).
Noi esseri umani abbiamo l'equivalente di un Large Language Model E di un Large World Model, nella nostra piccola testa siamo anche in grado di creare dei modelli di emulazione delle entità (reali o meno) con cui interagiamo in modo da avere un interscambio più efficace e sicuro (per noi stessi e per il nostro interlocutore).
Una "AI" basata su LLM ... ha SOLO un Large Language Model, tutto il resto É ASSENTE.
Purtroppo é qui che che molti cadono in inganno (o piú precisamente, ingannano se stessi) perché interagendo con un LLM attiviamo automaticamente il nostro simulatore dell'interlocutore e "colmiamo i vuoti nell'interazione" come se avessimo a che fare con un interlocutore con anche un world model e buona parte delle nostre capacità.
Per questo ad esempio spesso ci si autoillude che basti del prompt engineering per rendere un LLM piú "sicuro" ed al tempo stesso si sottovaluta che un LLM é un potentissimo strumento di filtraggio e manipolazione di informazioni non strutturate (specialmente se é integrato in software pensato appositamente per fare questo) che si presta ad utilizzi che vanno ben oltre l'utilizzo nominale per cui vengono venduti
alle masse.
.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".