LastPass: qualcuno tenta di impersonare il CEO con un deepfake audio, ma il dipendente non ci casca

L'incidente non ha avuto alcuna ripercussione, ma la società condivide i dettagli dell'accaduto per diffondere consapevolezza attorno al problema e alle nuove minacce informatiche
di Andrea Bai pubblicata il 12 Aprile 2024, alle 13:01 nel canale SicurezzaLastPass ha rivelato questa settimana che un suo dipendente è stato vittima di un attacco di "phishing vocale" dopo essere stato contattato da un attore di minaccia che, usando tecnologie di deepfake audio, ha impersonato il CEO dell'azienda Karim Toubba.
Secondo quanto racconta la società, il dipendente non è però caduto nel tranello: la comunicazione è avvenuta via WhatsApp, un canale di comunicazione piuttosto inusuale rispetto a quelli ufficiali dell'azienda.
A spiegare l'accaduto è Mike Kosak, analista di intelligence di LastPass. Il dipendente ha ricevuto su WhatsApp una serie di chiamate, messaggi di testo e almeno un messaggio vocale contenente un deepfake audio da un attore di minacce che si spacciava per Toubba.

Nonostante il tentativo di imitazione vocale, il dipendente ha riconosciuto i segni di una manovra di ingegneria sociale (come le richieste insistenti e falsamente urgenti), e ha quindi segnalato l'incidente al team di sicurezza interno. L'attacco è fallito e non ha avuto alcun impatto su LastPass.
La società ha però voluto condividere i dettagli dell'incidente sensibilizzare il pubblico e altre realtà che i deepfake generati dall'IA sono già utilizzate nelle campagne che fanno leva sul furto d'identità dei membri della compagine dirigenziale di un'azienda. Il deepfake audio usato nell'attacco a LastPass è probabile che sia stato realizzato usando i modelli IA in grado di replicare una voce a partire da pochi secondi di registrazione e sfruttando l'audio di un qualsiasi video pubblicamente disponibile del CEO di LastPass, come quelle presenti su YouTube.
Questa vicenda conferma un avvertimento che l'Europol aveva già diramato nel corso del 2022 con la diffusione di un rapporto dettagliato (aggiornato poi a gennaio di quest'anno) dell'uso criminale delle tecnologie deepfake, contenente una serie di esempi che mostrano l'uso di queste tecnologie in crimini gravi. I progressi nell’intelligenza artificiale e la disponibilità pubblica di grandi database di immagini e video non fanno altro che alimentare ed ingigantire il problema, facilitando la proliferazione e l'esecuzione di azioni criminali che sfruttano i deepfake.
Restando esattamente su questo tema è opportuno ricordare che all'inizio
del mese di aprile OpenAI
ha annunciato il nuovo modello di intelligenza artificiale VoiceEngine
che, come il nome suggerisce, è destinato alla generazione di voci
sintetiche. Questa tecnologia permette di replicare voci realmente
esistenti a partire da una breve clip audio. La società non ha
ancora rilasciato pubblicamente il modello, affermando di essere impegnata
in un processo di valutazione interno per via "del potenziale uso
improprio della voce sintetica", e che sulla base della valutazione
deciderà "se e come implementare questa tecnologia su larga scala".
1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoste AI stanno rovinando il mondo e non lo dico per il deepfake, ma perchè.... che cosa significa "da un attore di minacce"!
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".