Alexa, Siri e Google Assistant attivati "accidentalmente": due studi fanno luce sul problema

Alexa, Siri e Google Assistant attivati "accidentalmente": due studi fanno luce sul problema

Ci sono svariate parole e frasi, anche foneticamente differenti dalle wakeword ufficiali, che attivano gli assistenti vocali: un problema di sicurezza e privacy a cui alcuni ricercatori provano a dare una risposta

di pubblicata il , alle 18:01 nel canale Sicurezza
AlexaSiri
 

La diffusione degli assistenti vocali, non solo nella forma di dispositivi destinati esclusivamente allo scopo (come per esempio Amazon Echo) ma anche come servizi integrati in altri oggetti (televisori, telefoni, orologi e via discorrendo), pone un problema e un rischio potenziale per la privacy e la sicurezza dell'utente: come è possibile, infatti, riuscire a tenere traccia delle registrazioni audio che questi servizi e dispositivi effettuano? Quali vengono inviate in cloud? Chi può effettivamente accedervi?

Sono domande a cui ricercatori dell'Università di Darmstadt, della North Carolina State University e dell'Università di Parigi Saclay, hanno provato a dare una risposta con lo sviluppo di LeakyPick: si tratta di un sistema che analizza con una certa peroidicità i dispositivi smart dotati di microfono e monitora il traffico di rete andando a ricercare schemi di pacchetti che possano indicare la trasmissione di clip audio. E tramite LeakyPick i ricercatori hanno già individuato qualcosa di interessante: vi sarebbero infatti "dozzine" di parole che attivano accidentalmente gli smart speaker Amazon Echo.

LeakyPick è costituito da un sistema Raspberry Pi che funziona generando periodicamente rumori udibili e monitora il traffico di rete sulla base di un approccio statistico applicabile ad una serie di dispositivi vocali. Lo scopo è quello di identificare registrazioni o trasmissioni audio nascoste e rilevare dispositivi eventualmente compromessi. Secondo i ricercatori LeakyPick ha un'accuratezza del 94% nell'individuare il traffico vocale e funziona sia con i dispositivi che fanno uso di una cosiddetta "wakeword", sia per quelli che non prevedono questo tipo di operatività, come ad esempio telecamere di sicurezza o altri dispositivi IoT o smart-home.

Nel primo caso il sistema aggiunge ai suoi suoni prefissi noti (come "Alexa" o "Ok Google") e cerca, a livello di trasmissioni di rete, picchi di traffico per verificare quando i dispositivi con microfono che genericamente non inviano molti dati causano un incremento del traffico. Questa fase di "sondaggio statistico" ha lo scopo di filtrare i casi in cui i picchi di traffico sono causati da trasmissioni non-audio. Per identificare poi quelle parole che potrebbero attivare accidentalmente l'assistente vocale, e quindi effettuare una registrazione, LeakyPick usa tutte le parole che hanno fonemi simili rispetto alle wakeword ufficiali. Oltre a queste usa anche una serie di parole scelte casualmente da un elenco arbitrario.

LeakyPick è stato quindi messo alla prova con dispositivi quali Echo Dot, Google Home, HomePod, Netatmo Welcome and Presence, Nest Protect e Hive Hub 360. Dopo aver condotto la fase di "sondaggio statistico" per ciascun dispositivo, i ricercatori hanno monitorato il traffico degli otto assistenti vocali selezionando casualmente un set di 50 parole tra le 1000 più utilizzate nella lingua inglese, combinandole con un elenco di wakeword note dei dispositivi vocali. I ricercatori hanno poi fatto interagire i componenti di tre nuclei familiari con gli altoparlanti Echo Dot, HomePod e Google Home, per un periodo di 52 giorni.

89 parole attivano Amazon Echo: anche electroresection!

Per misurare la precisione del sistema i ricercatori hanno registrato i marcatori temporali di quando i dispositivi hanno iniziato ad ascoltare i comandi, prendendo a riferimento i segnali luminosi dei dispositivi stessi: questo è stato possibile grazie ad un sensore ottico che ha permesso a LeakyPick di identificare l'attivazione dei dispositivi. Un altoparlante collegato a Raspberri Pi si è occupato di generare suoni, mentre un dongle USB-WiFi ha monitorato il traffico di rete.

Con lo scopo di provare ad identificare wakeword "accidentali", i ricercatori hanno configurato Echo Dot per utilizzare la parola d'ordine standard "Alexa" e hanno fatto riprodurre a LeakyPick svariate clip audio, aspettando qualche secondo perché l'assistente vocale potesse ascoltare il comando. I ricercatori hanno riscontrato che ben 89 parole hanno attivato Echo Dot, alcune delle quali anche foneticamente molto differenti da "Alexa", come "barranca", "lechner" o "electroresection".

Amazon ha già preso posizione sugli esiti di questa ricerca, commentando tramite un portavoce a VentureBeat: "Sfortunatamente, non ci è stata data l'opportunità di rivedere la metodologia alla base di questo studio per convalidare l'accuratezza di queste affermazioni prima della pubblicazione. Tuttavia, possiamo assicurare che abbiamo profondamente integrato la privacy nel servizio Alexa e che i nostri dispositivi sono progettati per attivarsi solo dopo aver rilevato la parola di riattivazione. I clienti parlano con Alexa miliardi di volte al mese e in rari casi i dispositivi possono attivarsi dopo aver sentito una parola che suona come "Alexa" o una delle altre parole di riattivazione disponibili. In base alla progettazione, il nostro rilevamento delle parole d'ordine e il riconoscimento vocale migliorano ogni giorno questo perché i clienti utilizzano i loro dispositivi e in questo modo possiamo ottimizziarne le prestazioni ".

Non solo Alexa: un altro studio evidenzia lo stesso problema per Siri e Google Assistant

Tutte le attivazioni seguite alle 89 parole hanno poi innescato la trasmissione delle registrazioni audio ai server Amazon. "Dal momento che i dispositivi IoT e i dispositivi smart-home sono sempre più provvisti di microfoni, si avverte una crescente necessità di difese concrete per la privacy. LeakyPick rappresenta un approccio interessante per mitigare una vera minaccia alla privacy della smarthome" commentano i ricercatori.

Alcune considerazioni sullo studio: si tratta ovviamente di una ricerca effettuata solo sui fonemi della lingua inglese, ma considerando la differenza fonetica tra una parola come "electroresection" e "Alexa" è ragionevole supporre che la stessa problematica si possa presentare anche con idiomi differenti, seppur con probabilità diverse.

I ricercatori hanno effettuato questo test specifico solamente con un dispositivo Amazon Echo, ma sarebbe stato interessante verificare se anche altre tecnologie di riconoscimento vocale (almeno le altre due più diffuse: Siri e Google Assistant) possano offrire comportamenti simili. Ma su questo ha già provato a far luce un altro studio, questa volta da parte degli scienziati della Ruhr-Universität Bochum (RUB) e del Bochum Max Planck Institute (MPI) for Cyber Security and Privacy, che hanno identificato un migliaio di frasi che attivano accidentalmente gli assistenti vocali come Siri, Google Assistant e la stessa Alexa.

5 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
omega72608 Luglio 2020, 18:30 #1
Purtroppo è vera la cosa senza doverci fare uno studio.
Io ho Alexa nella soundbar e vicino ho un Google Home mini.
Entrambi si attivano spessissimo da soli mentre guardo la tv sia in Italiano che in Inglese.
Me ne accorgo perchè tutti e due hanno controllo sul televisore e quando si attivano azzerano il volume della tv.

Non molto tempo fa mi era capitato mentre guardavo una serie tv in inglese e ricordo che ho mandato indietro diverse volte la scena per far ripetere la frase e a ogni ripetizione Alexa entrava in funzione, senza nemmeno che il parlato avesse un suono vagamente simile al comando "Alexa".
ferste08 Luglio 2020, 19:01 #2
E di quel cesso di pubblicità nella quale il protagonista saliva in macchina e diceva "ok, Google"? Tutte le volte mi faceva partire il cell...
Schaduw08 Luglio 2020, 20:02 #3
indimenticabile il giorno in cui durante un laboratorio di mineralogia il docente ha fatto attivare il mio google assistant, non abbiamo la più pallida idea di quali suoni lo abbiano triggerato visto che parlavamo di minerali e nulla suonava nemmeno vagamente come "google". Da allora ho preferito farne a meno sinceramente.
Hiei360008 Luglio 2020, 20:04 #4
Originariamente inviato da: ferste
E di quel cesso di pubblicità nella quale il protagonista saliva in macchina e diceva "ok, Google"? Tutte le volte mi faceva partire il cell...


Tempo fa c'è stata una pubblicità simile in America dove l'attore diceva intenzionalmente "Ok Google" per poi dirgli di aprire una pagina wikipedia riguardo al suo prodotto (un hamburger mi pare).

In pratica tu ti stavi facendo i cavoli tuoi ed ogni volta che partiva la pubblicità in TV questa ti si risbatteva in faccia sullo smartphone...bella trovata, ma già allora ha suscitato parecchie polemiche...

Inoltre, il famoso Assistente di Google non dovrebbe essere calibrato con la tua voce? è assurdo che un pinco pallino qualsiasi possa "usare" il tuo telefono senza il tuo consenso
[OzZ]08 Luglio 2020, 20:28 #5
io l'ho disattivato, lo richiamo solo da gesture.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^