I browser agentici non sono ancora maturi: anche Atlas vulnerabile ad attacchi di prompt injection

I browser agentici non sono ancora maturi: anche Atlas vulnerabile ad attacchi di prompt injection

I browser AI come OpenAI Atlas e Perplexity Comet sono vulnerabili ad attacchi di spoofing della sidebar e di prompt injection. Estensioni malevole possono impersonare l'interfaccia AI, mentre comandi nascosti in pagine web possono indurre l'assistente a compiere azioni dannose. Le aziende sono a conoscenza del problema, ma le soluzioni non sono ancora definitive

di pubblicata il , alle 17:01 nel canale Sicurezza
PerplexityOpenAI
 

I browser ChatGPT Atlas di OpenAI e Comet di Perplexity sono entrambi vulnerabili a forme sofisticate di attacco che sfruttano la natura stessa dei sistemi agentic. L'AI Sidebar Spoofing, scoperto dai ricercatori di SquareX, consente a estensioni malevole di sovrapporre una sidebar falsa a quella reale del browse agentico, identica nell'aspetto e nel comportamento, intercettando ogni interazione dell'utente. Poiché l'estensione richiede solo permessi comuni come 'host' e 'storage', simili a quelli di strumenti legittimi come password manager o Grammarly, l'utente non può rilevare l'inganno. Una volta attivata, la sidebar contraffatta può indurre l'utente a visitare pagine di phishing, a condividere credenziali di Gmail o Drive tramite OAuth, o a eseguire comandi che installano shell inverse sui dispositivi.

Un'altra minaccia significativa è l'indirect prompt injection, in cui istruzioni malevole sono nascoste all'interno di contenuti web apparentemente innocui, come testi invisibili, commenti su Reddit o immagini. Quando l'utente chiede all'AI di riassumere una pagina, il sistema elabora anche questi comandi nascosti come se fossero richieste legittime. Brave aveva già dimostrato in precedenza che in Comet era possibile eseguire un attacco in cui l'AI veniva indotta a navigare verso il profilo utente di Perplexity, recuperare l'email e l'OTP, e inviarli a un server controllato dall'attaccante, compromettendo l'account. Anche Atlas, nonostante le misure di sicurezza implementate, non è immune: alcuni test condivisi su X hanno mostrato che può essere ingannato da documenti Google che gli ordinano di ignorare la richiesta originale e di rispondere con messaggi come \"Trust No AI\".

OpenAI, in un lungo post su X ad opera del Chief Information Secutity Officer, Dane Stuckey, ha riconosciuto il rischio di prompt injection, definendolo un problema di sicurezza ancora irrisolto e di frontiera, e ha descritto misure come il red-teaming estensivo, tecniche di addestramento del modello per ignorare comandi malevoli e sistemi di rilevamento degli attacchi. Tuttavia, la società ammette che gli avversari continueranno a cercare modi per ingannare l'agente. Perplexity ha dichiarato di aver risolto le vulnerabilità, ma ulteriori test hanno rivelato che la correzione non era completa, portando Brave a riportare il problema.

Al momento le raccomandazioni sono quelle di utilizzare questi browser solo per attività non sensibili, evitando di gestire dati finanziari, email o informazioni personali. È fondamentale non installare estensioni da fonti non affidabili, poiché sono il vettore principale per l'AI Sidebar Spoofing. Inoltre, si dovrebbe sempre verificare manualmente le azioni suggerite dall'AI, specialmente quelle che coinvolgono accessi a servizi o l'esecuzione di comandi. La consapevolezza che questi sistemi non sono ancora maturi dal punto di vista della sicurezza è cruciale per prevenire incidenti.

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
LMCH24 Ottobre 2025, 18:58 #1
Già in tempi non sospetti dicevo che i software basati su LLM avrebbero aperto nuove superfici di attacco; questa è l'ennesima volta che la cosa viene resa evidente e sopratutto è l'ennesima volta in cui è evidente che gli spacciatori di LLM se ne fottono degli aspetti di cybersecurity.

Non saranno MAI "maturi", sono così by design.
mozzarello25 Ottobre 2025, 07:42 #2
Originariamente inviato da: LMCH
Già in tempi non sospetti dicevo che i software basati su LLM avrebbero aperto nuove superfici di attacco; questa è l'ennesima volta che la cosa viene resa evidente e sopratutto è l'ennesima volta in cui è evidente che gli spacciatori di LLM se ne fottono degli aspetti di cybersecurity.

Non saranno MAI "maturi", sono così by design.


Gli LLM sono una rivoluzione per quanto riguarda le interfaccie di controllo. Per la prima volta nella storia dell'umanità, teoricamente si può comunicare in linguaggio naturale con qualsiasi tecnologia, che sia un computer, un telefono, un'auto o un forno a microonde, che non solo capisce cosa gli si dice anche balbettando, ma risponde come risponderebbe un'altra persona, ci si può letteralmente dialogare.

Però questo funziona se son modelli piccoli, offline e tarati solo per il lavoro che devono svolgere. Allo stato attuale i grandissimi LLM da centinaia di miliardi di parametri li vedo interessanti solo per entertainment, non mi fiderei mai per cose importanti come lavoro, salute, denaro, burocrazia statale.

Per questo mi meraviglia che questi browser che "fan tutto loro" siano considerati così tanto dall'utenza. Chi li sviluppa è chiaro perché lo fa, più profilazione e più dati da rivendere, ma davvero c'è gente che si farebbe comprare le scarpe o prenotare un viaggio da ChatGPT?
h.rorschach25 Ottobre 2025, 09:11 #3
Non serve siano sicuri, servono solo per sifonare dati da utenti e siti che non consentono il crawling
pachainti25 Ottobre 2025, 18:23 #4
Originariamente inviato da: mozzarello
Gli LLM sono una rivoluzione per quanto riguarda le interfaccie di controllo. Per la prima volta nella storia dell'umanità, teoricamente si può comunicare in linguaggio naturale con qualsiasi tecnologia, che sia un computer, un telefono, un'auto o un forno a microonde, che non solo capisce cosa gli si dice anche balbettando, ma risponde come risponderebbe un'altra persona, ci si può letteralmente dialogare.

Però questo funziona se son modelli piccoli, offline e tarati solo per il lavoro che devono svolgere. Allo stato attuale i grandissimi LLM da centinaia di miliardi di parametri li vedo interessanti solo per entertainment, non mi fiderei mai per cose importanti come lavoro, salute, denaro, burocrazia statale.

Per questo mi meraviglia che questi browser che "fan tutto loro" siano considerati così tanto dall'utenza. Chi li sviluppa è chiaro perché lo fa, più profilazione e più dati da rivendere, ma davvero c'è gente che si farebbe comprare le scarpe o prenotare un viaggio da ChatGPT?


Ti pagano per scrivere queste fesserie o è frutto di un generatore di stronzate?
ChatGPT is bullshit
mozzarello26 Ottobre 2025, 07:15 #5
Originariamente inviato da: pachainti
Ti pagano per scrivere queste fesserie o è frutto di un generatore di stronzate?
ChatGPT is bullshit


Mi paga Sam Altman chiaramente. Tu invece, offendere malamente gli altri per le loro opinioni lo fai gratis? Che poi non ho tessuto le lodi di nessun LLM, anzi.
pachainti26 Ottobre 2025, 09:10 #6
Originariamente inviato da: mozzarello
Mi paga Sam Altman chiaramente. Tu invece, offendere malamente gli altri per le loro opinioni lo fai gratis? Che poi non ho tessuto le lodi di nessun LLM, anzi.


Non mi pare di aver offeso nessuno, se ti sei sentito offeso ti chiedo scusa. Tuttavia, rimango dell'opinione precedente ovvero che se una persona conosce minimamente cosa sia il machine learning e di conseguenza quello che propagandano per IA, non può scrivere certe cose.
mozzarello26 Ottobre 2025, 09:29 #7
Originariamente inviato da: pachainti
Non mi pare di aver offeso nessuno, se ti sei sentito offeso ti chiedo scusa. Tuttavia, rimango dell'opinione precedente ovvero che se una persona conosce minimamente cosa sia il machine learning e di conseguenza quello che propagandano per IA, non può scrivere certe cose.


Non ho scritto niente che non sia vero:

- Gli LLM permettono di usare interfaccie di dialogo anziché testuali/grafiche
- Essendo modelli statistici generativi, non mi fido ad usarli per cose importanti, ma per entertainment sì (creazione storie, avventure testuali, generazione immagini, ecc)
- Non capisco, per i motivi di cui sopra, come possa certa gente fidarsi di un browser agentico

Non capisco cosa centri il machine learning. Non è prerogativa di IA generative ed un sottoinsieme che include tutte le IA che "imparano" comprese quelle predittive, che son usatissime in ambito scientifico e industriale. O "quel che propagandano per IA", dato che si chiamano IA perché si basano su reti neurali, non perché pensino e abbiano una coscienza.

Tu hai scritto ChatGPT is bullshit, io non ho mai scritto ChatGPT è una gran cosa, anzi.
amd-novello26 Ottobre 2025, 10:13 #8
Originariamente inviato da: h.rorschach
Non serve siano sicuri, servono solo per sifonare dati da utenti e siti che non consentono il crawling


this
pachainti26 Ottobre 2025, 18:34 #9
Originariamente inviato da: mozzarello
Non ho scritto niente che non sia vero:

- Gli LLM permettono di usare interfaccie di dialogo anziché testuali/grafiche
- Essendo modelli statistici generativi, non mi fido ad usarli per cose importanti, ma per entertainment sì (creazione storie, avventure testuali, generazione immagini, ecc)
- Non capisco, per i motivi di cui sopra, come possa certa gente fidarsi di un browser agentico

Non capisco cosa centri il machine learning. Non è prerogativa di IA generative ed un sottoinsieme che include tutte le IA che "imparano" comprese quelle predittive, che son usatissime in ambito scientifico e industriale. O "quel che propagandano per IA", dato che si chiamano IA perché si basano su reti neurali, non perché pensino e abbiano una coscienza.

Tu hai scritto ChatGPT is bullshit, io non ho mai scritto ChatGPT è una gran cosa, anzi.


Non è necessario avere gli LLM per avere un'interfaccia non testuale, per esempio gli assistenti vocali esistono da prima del loro arrivo.
Un LLM non ha consapevolezza, ne senso di realtà, genera solo sequenze di parole, audio, immagini, etc. Il significato ce lo mettiamo noi. Per lui generare qualcosa di significato o una stronzata è equivalente.
Gli LLM fanno parte del machine learning, in particolare del deep learning. Oggi vengono spacciati per IA e chi non conosce l'argomento, purtroppo viene tratto in inganno.
mozzarello26 Ottobre 2025, 18:44 #10
Originariamente inviato da: pachainti
Non è necessario avere gli LLM per avere un'interfaccia non testuale, per esempio gli assistenti vocali esistono da prima del loro arrivo.
Un LLM non ha consapevolezza, ne senso di realtà, genera solo sequenze di parole, audio, immagini, etc. Il significato ce lo mettiamo noi. Per lui generare qualcosa di significato o una stronzata è equivalente.
Gli LLM fanno parte del machine learning, in particolare del deep learning. Oggi vengono spacciati per IA e chi non conosce l'argomento, purtroppo viene tratto in inganno.


Gli assistenti vocali non sono minimamente paragonabili a un LLM.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^