OpenClaw sotto attacco: i malware infostealer puntano sugli agenti IA locali

OpenClaw sotto attacco: i malware infostealer puntano sugli agenti IA locali

Un'infezione reale di malware infostealer ha esfiltrato per la prima volta l'intero ambiente di configurazione di OpenClaw, rivelando quanto gli assistenti IA agentici possano diventare un nuovo bersaglio ad alto impatto per i cybercriminali

di pubblicata il , alle 15:29 nel canale Sicurezza
 

OpenClaw, framework di assistente IA agentico che può operare in locale sul PC dell'utente, è stato coinvolto nel primo caso documentato di furto dei suoi file di configurazione da parte di un malware infostealer. Secondo quanto riportato da Hudson Rock, la compromissione ha portato all'esfiltrazione di token, chiavi crittografiche e file di memoria in grado, potenzialmente, di permettere la manipolazione completa e lo sfruttamento dell'identità digitale della vittima.

OpenClaw, conosciuto anche come ClawdBot e MoltBot, è un framework agentico che mantiene una configurazione persistente e un ambiente di memoria sul sistema locale, con accesso a file, email, app di comunicazione e servizi online che l'utente ha deciso di collegare. Proprio questa integrazione profonda con la sfera personale e professionale ha portato diversi ricercatori a indicarlo come un nuovo obiettivo primario per gli infostealer, che tradizionalmente prendono di mira soprattutto a credenziali di browser e applicazioni.

Cosa è stato rubato: token, chiavi private e "soul" dell'agente

Nel caso analizzato, Hudson Rock ha individuato un'infezione attribuita con alta probabilità a una variante del noto infostealer Vidar, attivo dal 2018 e ampiamente utilizzato nello scenario del cybercrime. Il malware non conteneva un modulo specifico per OpenClaw, ma eseguiva una routine di furto generica che scandaglia il sistema alla ricerca di file e directory sensibili, basandosi su parole chiave come "token" e "private key" e su percorsi come la cartella nascosta ".openclaw".

Tra i file sottratti figurano "openclaw.json", che include l'email dell'utente, il percorso del workspace e un token di autenticazione ad alta entropia per il gateway dell'agente. Secondo gli analisti, un token di questo tipo potrebbe consentire a un attaccante di collegarsi a un'istanza locale di OpenClaw esposta in rete o impersonare il client nelle richieste verso il gateway dell'assistente.

Un altro file critico è "device.json", contenente sia la chiave pubblica sia la chiave privata (publicKeyPem e privateKeyPem) utilizzate per il pairing e la firma dei messaggi. La disponibilità della chiave privata permette in teoria di firmare comunicazioni come se provenissero dal dispositivo legittimo, con il rischio di aggirare controlli come i "Safe Device check" e accedere a log cifrati o servizi cloud associati.

Particolarmente delicati sono poi i file "soul.md" e quelli di memoria come "AGENTS.md" e "MEMORY.md", che definiscono il comportamento dell'agente e conservano contesti persistenti. In questi documenti possono comparire attività quotidiane, messaggi privati, eventi di calendario e altre informazioni personali che, se correlate, contribuiscono a costruire un quadro molto dettagliato della vita digitale della vittima. Hudson Rock sottolinea che, nel caso analizzato, l'insieme di token, chiavi e memoria potrebbe abilitare una compromissione totale dell'identità digitale dell'utente.

Dagli account ai "souls" degli agenti IA: un cambio di paradigma per gli infostealer

Per i ricercatori coinvolti, questo incidente rappresenta una tappa significativa nell'evoluzione degli infostealer, che stanno passando dalla semplice raccolta di credenziali archiviate nei browser al furto delle identità operative degli assistenti IA personali. Hudson Rock aveva già indicato OpenClaw come "nuovo obiettivo primario" per questo tipo di malware, proprio per la concentrazione di dati sensibili e segreti di accesso che l'agente gestisce e memorizza.

In parallelo, altri rapporti hanno messo in luce la crescente superficie d'attacco attorno all'ecosistema OpenClaw, che comprende skill di terze parti, repository pubblici e servizi collegati. Ricerche recenti descrivono campagne di supply chain attack che sfruttano skill malevoli su ClawHub e siti clone per distribuire malware, oltre a problematiche legate a piattaforme correlate come Moltbook, forum "solo IA" in cui gli account degli agenti non possono essere cancellati una volta creati.

La combinazione di accesso capillare ai dati dell'utente e capacità di agire in autonomia rende questi agenti una possibile "amplificazione" dell'attacco, con scenari che vanno dall'abuso di servizi collegati fino all'uso dell'agente compromesso come veicolo per nuove intrusioni. Per questo motivo diversi vendor di sicurezza hanno iniziato a pubblicare linee guida specifiche per la protezione delle istanze OpenClaw esposte e a proporre soluzioni di hardening, controllo degli accessi e segregazione delle attività ad alto rischio.

Implicazioni per utenti e aziende che adottano agenti IA

Gli incidenti che coinvolgono OpenClaw e nanobot mostrano come gli agenti IA personali e i framework agentici stiano diventando parte integrante delle infrastrutture IT e dei flussi di lavoro aziendali, e non più semplici strumenti sperimentali. La presenza di API key, token di accesso, chiavi crittografiche e log di attività all'interno dei loro ambienti di esecuzione rende necessario applicare a questi sistemi lo stesso livello di controllo e di hardening già adottato per applicazioni critiche e servizi esposti.

Per chi valuta o utilizza soluzioni di questo tipo, le raccomandazioni dei ricercatori convergono su alcuni punti chiave: evitare l'esposizione diretta delle istanze su Internet senza autenticazione robusta, limitare i permessi concessi all'agente, monitorare l'uso di skill di terze parti e mantenere aggiornati framework e componenti di integrazione. I casi riportati indicano che gli attori malevoli stanno già adattando i propri strumenti per sfruttare le nuove opportunità offerte dall'adozione degli agenti IA, rendendo la sicurezza di questi sistemi una priorità emergente per utenti finali e aziende.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
UtenteHD17 Febbraio 2026, 15:39 #1
L'attuale IA che e' alla preistoria delle IA, non e' altro che un insieme di rattoppi bucati per ogni punto di vista sia dal codice che dal parlato imborgliandola, questa e' l'impressione che si ha leggendo continuamente le informazioni di cybersicurezza.
Capisco che fa tanto futuristico dare il computer in mano ad un'IA, ma ora come ora e' una pazzia sotto ogni punto di vista, gia' averla integrata pesantemente in un SO la vedo grigia, magari stanno aspettando che sia bene implementata per poi inviarle tramite email siti web preparati ed altro per riempirla di comandi non voluti (sempre leggendo in giro).

Poi se non sbaglio non e' la prima volta che sono attaccatti, l'ultima volta (se era l'ultima volta), nei 10 secondi in cui il precedente sito web aveva cambiato nome (perche' hanno cambiato nome all'AI) e' restata senza proprietari ed altri immediatamente lo hanno acquistato per caricarlo di codice malevolo, in modo tale che chi si collegava, aggiornava ecc.. ancora col vecchio nome venivano infettati. Mi sembra di averlo letto sul sito di cybersecurity dei Red
bonzoxxx17 Febbraio 2026, 18:29 #2
Originariamente inviato da: UtenteHD
L'attuale IA che e' alla preistoria delle IA, non e' altro che un insieme di rattoppi bucati per ogni punto di vista sia dal codice che dal parlato imborgliandola, questa e' l'impressione che si ha leggendo continuamente le informazioni di cybersicurezza.
Capisco che fa tanto futuristico dare il computer in mano ad un'IA, ma ora come ora e' una pazzia sotto ogni punto di vista, gia' averla integrata pesantemente in un SO la vedo grigia, magari stanno aspettando che sia bene implementata per poi inviarle tramite email siti web preparati ed altro per riempirla di comandi non voluti (sempre leggendo in giro).

Poi se non sbaglio non e' la prima volta che sono attaccatti, l'ultima volta (se era l'ultima volta), nei 10 secondi in cui il precedente sito web aveva cambiato nome (perche' hanno cambiato nome all'AI) e' restata senza proprietari ed altri immediatamente lo hanno acquistato per caricarlo di codice malevolo, in modo tale che chi si collegava, aggiornava ecc.. ancora col vecchio nome venivano infettati. Mi sembra di averlo letto sul sito di cybersecurity dei Red


Dove lavoro attualmente la parola AI è ovunque: il punto è che la maggior parte di chi la pronuncia non ha idea di cosa sia. E tra questi mi ci metto anche io che, anche non pronunciandola ogni 3x2, mi rendo conto che è una rivoluzione, perchè lo è, ma lungi dall'essere perfetta.

MA

Personalmente la uso come uno strumento e non mi sognerei mai di dare dati sensibili, men che meno accesso ai miei files, ad una AI della quale non si sanno bene i "confini" e i constraints.

Per il momento studio e aspetto, ma per ora vedo che questa AI sta aiutando più i red che i blu..
LMCH18 Febbraio 2026, 01:32 #3
Usare gli LLM come interfaccia di interazione o di comando e controllo interattivo corrisponde automaticamente ad aprire falle di sicurezza nei sistemi a cui hanno accesso.
Gli LLM non hanno un vero concetto di vero o falso o di reale o immaginario ed ancor meno di sicurezza (sia nel senso di safety che di security).

Noi esseri umani abbiamo l'equivalente di un Large Language Model E di un Large World Model, nella nostra piccola testa siamo anche in grado di creare dei modelli di emulazione delle entità (reali o meno) con cui interagiamo in modo da avere un interscambio più efficace e sicuro (per noi stessi e per il nostro interlocutore).

Una "AI" basata su LLM ... ha SOLO un Large Language Model, tutto il resto É ASSENTE.
Purtroppo é qui che che molti cadono in inganno (o piú precisamente, ingannano se stessi) perché interagendo con un LLM attiviamo automaticamente il nostro simulatore dell'interlocutore e "colmiamo i vuoti nell'interazione" come se avessimo a che fare con un interlocutore con anche un world model e buona parte delle nostre capacità.

Per questo ad esempio spesso ci si autoillude che basti del prompt engineering per rendere un LLM piú "sicuro" ed al tempo stesso si sottovaluta che un LLM é un potentissimo strumento di filtraggio e manipolazione di informazioni non strutturate (specialmente se é integrato in software pensato appositamente per fare questo) che si presta ad utilizzi che vanno ben oltre l'utilizzo nominale per cui vengono venduti
alle masse.
danylo18 Febbraio 2026, 17:21 #4
le raccomandazioni dei ricercatori convergono su alcuni punti chiave: [S]evitare l'esposizione diretta delle istanze su Internet senza autenticazione robusta, limitare i permessi concessi all'agente, monitorare l'uso di skill di terze parti e mantenere aggiornati framework e componenti di integrazione[/S] non usare Agent AI


.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^