|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/sicure...ga_142405.html
Un’analisi condotta da Guardio e incentrata su Comet di Perplexity, ha mostrato come i browser AI siano suscettibili a phishing, furti di dati e acquisti su siti falsi, aprendo scenari inediti per la sicurezza online Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: May 2020
Messaggi: 1049
|
Su questo c'è anche una ricerca condotta da Brave: Agentic Browser Security: Indirect Prompt Injection in Perplexity Comet
Meglio lasciar perdere i browser con IA e usare uno di quelli che rispettano i diritti dell'utente PrivacyTests.org
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6147
|
Avevo già scritto ANNI FA (come vola il tempo) che le AI basate su LLM avrebbero aperto nuove superfici di cyberattacco ed alla fine la cosa sta diventando evidenti a tutti.
Comunque per ora quella più ridicola è l'uso di Copilot per aggirare il sistema di auditing degli accessi ai file di Windows, di fatto rendendo inutile tutto il malware legalizzato che Microsoft ha integrato in Windows. |
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6147
|
Sempre riguardo sicurezza e vulnerabilità:
https://blog.trailofbits.com/2025/08...on-ai-systems/ Le tecniche descritte sopra servono per fare prompt injection ai VLM (Vision Language Model) tramite immagini apparentemente innocque; visto che il "trucco" sfrutta il downscaling, la prompt injection può essere mixata con testo visibile generico in modo da rendere ancora più difficile capire se è testo "innocquo" oppure una prompt injection malevole. |
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: Nov 2014
Messaggi: 4375
|
Quote:
![]()
__________________
Telegram > Whatsapp | Waze > Maps | iliad > vodafone | Basket > Calcio | Marquez > Rossi | Hamilton > Schumacher | futuro > passato |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 20:18.