Kaspersky NEXT 2024 e i rischi dell'IA: servono strumenti ma anche consapevolezza e partecipazione

L'intelligenza artificiale è una forza trasformativa che ridefinirà la vita quotidiana. Ma quali sono le implicazioni per la sicurezza? Per affrontare i rischi è necessario un approccio olistico e collaborativo: tecnologia, sviluppo responsabile, etico e trasparente, e consapevolezza e alfabetizzazione per la società
di Andrea Bai pubblicata il 25 Giugno 2024, alle 16:52 nel canale SicurezzaKaspersky
Nota del redattore: i contenuti di questa notizia sono relativi ad un evento che Kaspersky ha organizzato ad Atene dal 17 al 19 giugno scorsi. Si tratta di un contenuto redatto nei giorni scorsi e previsto per la pubblicazione nella giornata odierna. La notizia non ha alcuna attinenza con quanto emerso nella giornata di venerdì 21 giugno, con riferimento al divieto alla vendita dei prodotti Kaspersky sul mercato americano emanato dal Governo degli Stati Uniti d'America.
Non è certo una novità il fatto che i cybercriminali siano sempre un passo avanti nell'adozione delle tecnologie nuove ed emergenti a supporto delle loro malefatte: l'Intelligenza Artificiale, che tra il grande pubblico forse non è ancora del tutto compresa e metabolizzata, non fa eccezione. Proprio l'Intelligenza Artificiale è il tema centrale di Kaspersky NEXT 2024, l'appuntamento che la società di sicurezza informatica russa organizza ogni anno per tracciare il futuro delle minacce tecnologiche e che quest'anno si è tenuto ad Atene nei giorni dal 17 al 19 giugno scorsi.

Dan Demeter, Senior Researcher Kaspersky GReAT
Marco Preuss e Dan Demeter, Deputy Director il primo e Senior Researcher il secondo, entrambi per il Global Research & Analysis Team (GReAT) di Kaspersky, vanno oltre i "tradizionali" fenomeni di spionaggio, sabotaggio e le sofisticate minacce persistenti avanzate (APT - Advanced Persistent Threat) per soffermarsi sul concetto di "infowar". La manipolazione di massa dell'opinione pubblica rappresenta un fenomeno ancor più preoccupante man mano che gli strumenti di IA generativa diventano sempre più accessibili al pubblico.

Marco Preuss, Deputy Director GReAT
Non si tratta di qualcosa di sconosciuto: le fake news che ci hanno malauguratamente accompagnato negli ultimi 10 anni almeno. Il fenomeno nasce dalla velocità con cui siamo continuamente bombardati da nuove notizie e trova terreno fertile nella sete di novità da parte del pubblico. E', a tutti gli effetti, una sorta di FOMO (Fear Of Missing Out - paura di perdersi qualcosa) dell'informazione, ma anche la ricerca di risposte rapide e facili, che porta spesso a mettere da parte quel giusto grado di scetticismo utile a verificare l'autenticità o la veridicità di una notizia.

Queste dinamiche stanno subendo un'accelerazione spaventosa con la diffusione dei famigerati deepfake, che l'uso delle tecnologie di IA generativa sta rendendo sempre più indistinguibili da contenuti video autentici. Oggi è diventato estremamente semplice realizzare un video falso, con protagonista un personaggio noto che compie o pronuncia qualcosa di apparentemente sconvolgente, quando tutto ciò non è mai accaduto nella realtà. E' in questo modo che si riesce a pilotare e condizionare l'opinione pubblica per gli scopi più diversi. Un video, per sua natura, è comunicativamente molto più impattante di una notizia, per via del grande potere che le immagini esercitano sulla mente umana.
Kaspersky NEXT 2024: il 98% dei deepfake è legato alla pornografia
I pericoli dei deepfake non si esprimono solamente in una dimensione sociale e a scopo di compromissione della stabilità politica o dello status-quo. I deepfake sono utilizzati anche per compiere crimini a scopo di lucro, com'è stato il recente caso di un attacco phishing sfociato in una truffa da 25 milioni di dollari a seguito di una videoconferenza in cui il deepfake del direttore finanziario di una società ha convinto un impiegato ad effettuare una transazione "riservata".
Ci sono aspetti ancor più preoccupanti, che arrivano a toccare la dimensione ancor più individuale e privata: la stragrande maggioranza dell'uso dei deepfake non riguarda frodi o reati contro l'informazione, ma è legato alla pornografia, ben nel 98% dei casi. Non si tratta solo di episodi di "revenge porn", ma di incidenti che possono capitare a chiunque: basta un video o una foto, non necessariamente "rubati", per consentire a chiunque di creare un deepfake. In tutto ciò emerge un ulteriore dato indicativo: un'indagine commissionata da Kaspersky ha rivelato che tra il 2021 e il 2024 è aumentato in generale il numero di coloro i quali ritengono accettabile monitorare il partner digitalmente anche senza il suo consenso. Sintomo di una società in generale desensibilizzata verso la raccolta di dati personali.
Si tratta di episodi di particolare gravità: in alcune situazioni chi è stato colpito da abusi perpetrati tramite deepfake, si è trovato costretto a cambiare vita (casa, lavoro) per via di video manipolati e quindi diffusi senza consenso. Casi aggravati talvolta dall'impossibilità o dall'estrema difficoltà a dimostrare l'inautenticità del deepfake. Si tratta di un grave danno alla reputazione dell'individuo, che vede andare in frantumi il suo senso di sicurezza (e il mondo attorno a lui) e diventa portatore di profonde ferite psicologiche. Su questo tema è intervenuta Emma Pickering, Head of Technology-faciliated Abuse and Economic Development per l'organizzazione britannica Refuge, sensibilizzando la platea sull'uso del termine "sopravvissuti" per indicare chi ha vissuto un episodio di "violenza digitale": "Sono riusciti a superare questa sfida [...], il termine sopravvissuti aiuta le persone colpite da violenza a vedere se stesse come persone forti. E noi, come società, dovremmo cambiare la nostra prospettiva e cercare di usare un altro termine ogni volta che il linguaggio lo consente".
Kaspersky NEXT 2024: IA personali che interagiscono con altre IA
I rischi correlati alla diffusione dell'IA non riguardano solo l'uso improprio dei deepfake. La consumerizzazione dell'IA è un fenomeno che sta avvenendo in maniera rapidissima, forse eccessiva. Il pubblico si ritrova tra le mani strumenti di cui non ha compreso tutte le potenziali implicazioni. Il futuro immediato (prossimi 2-3 anni) vedrà la grande diffusione di IA personali, che trasformeranno la realtà quotidiana. Servizi ed esperienze saranno fortemente basati sull'intelligenza artificiale, mediante le conversazioni e le interazioni che le IA personali intratterranno con altre IA. In questa probabile realtà futura le intelligenze artificiali avranno accesso a dati personali e sensibili, diventando un bersaglio particolarmente appetibile per i criminali informatici.

Anche questa è "infowar", declinata in una dimensione più personale, dove l'ingegneria sociale torna ad essere protagonista. Ingegneria sociale questa volta applicata proprio alla stessa IA, che può essere indotta a compiere azioni o a rivelare informazioni anche contro la sua stessa "volontà", ovvero i principi e le regole di funzionamento con cui è stata programmata. Ricordate "DAN", la strategia adottata per indurre ChatGPT ad aggirare le limitazioni poste in essere per rifiutare prompt in violazione dei suoi termini di utilizzo? DAN è un esempio di ingegneria sociale applicata all'IA, con una tecnica che nel caso specifico prende il nome di Prompt Poisoning, o "avvelenamento del prompt": questo stesso principio può essere applicato di fatto a qualsiasi intelligenza artificiale. Si tratta di una minaccia concreta quando le IA personali avranno accesso ai nostri dati e li utilizzeranno in conversazioni e interazioni tra IA che avverranno lontano dai nostri occhi.

Lilian Balatsou, PhD Cognitive Neuroscientist e AI Evangelist
Lilian Balatsou, neuroscienziata cognitiva e AI evangelist, osserva: "[Al momento] l'IA manca di trasparenza. Significa che questi modelli non sono realmente capaci di spiegare le decisioni che prendono. Non le possono spiegare a se stessi e agli individui. C'è un enorme tensione tra precisone e trasparenza. Le tecnologie più accurate non sono in grado di fornire risposte su come elaborano i propri pensieri. [...] C'è poi una mancanza di etica: i modelli sono funzionalmente dipendenti dai dati che gli somministriamo, e spesso sono allenati su dati viziati". Si tratta di problemi che hanno un diretto impatto sulla sicurezza di queste tecnologie, elevando in maniera esponenziale il rischio di violazioni e abusi di pari passo con l'adozione dell'IA da parte di aziende che gestiscono grandi quantità di dati sensibili.

L'intelligenza artificiale si sta presentando come una forza trasformativa che ha il potenziale di cambiare molti aspetti del mondo. Dalla soluzione di complessi problemi globali, alla rivoluzione di molti piccoli e grandi aspetti della vita quotidiana, dalla salute allo shopping, dall'istruzione al tempo libero, dalla gestione delle risorse aziendali all'efficientamento di quelle pubbliche. Ma assieme all'entusiasmo per i benefici è necessario prestare attenzione alle implicazioni etiche e sociali di questa trasformazione. Bilanciare efficienza e privacy, garantire una diffusione equa nella società dei benefici dell'IA, mantenere il controllo sulle decisioni che potrebbero condizionare profondamente le nostre vite.
Kaspersky NEXT 2024: tecnologia, trasparenza e consapevolezza per affrontare i rischi dell'IA
Come si affronta tutto ciò? I ricercatori Kaspersky sottolineano la necessità di un approccio olistico e collaborativo: da una parte gli strumenti tecnologici, in cui la stessa IA giocherà una parte importante. Già ora sono in fase di sviluppo, e in alcuni casi utilizzati, strumenti basati sull'intelligenza artificiale e capaci di rilevare un contenuto deepfake e che, auspicabilmente, diventeranno sempre più accurati con il progredire della tecnologia. Non solo: la diffusa interazione tra IA personali, con il possibile rischio della nascita di attacchi "AI-in-the-middle" farà emergere la necessità di sviluppare "IA che proteggano le IA", mettendo al sicuro i nostri dati riservati e personali.
Ma, appunto, questo è solo un tassello dell'approccio collaborativo. Da un lato la tecnologia, dall'altro l'impegno di sviluppatori e aziende ad adottare e promuovere trasparenza ed etica nella realizzazione dei loro modelli di IA e, auspicabilmente, una maggior attenzione a quel concetto di "security by design" su cui il settore della cybersecurity pone da anni l'accento quando si tratta di approcciare la sicurezza informatica "tradizionale" e che in questa prima fase dello sviluppo delle intelligenze artificiali è passato completamente in cavalleria.
E' necessaria inoltre una partecipazione attiva dei responsabili politici, non solo nella forma della produzione di regole, norme e legislazione in materia ma soprattutto in termini di comprensione del fenomeno senza preconcetti. Infine una maggior consapevolezza e alfabetizzazione nel pubblico generale: in questo caso è necessario anche un impegno individuale che porti il singolo a comprendere quali siano i rischi derivanti dall'IA e dai suoi usi. A prescindere dall'eventuale disponibilità di soluzioni tecnologiche in grado di metterci al sicuro, la consapevolezza dell'utente riveste un ruolo fondamentale: è la conoscenza del rischio che ci prepara al peggio. L'edizione 2024 di Kaspersky NEXT ha probabilmente sollevato più domande che fornito risposte, ma porsi le giuste domande è il primo passo verso una maggior consapevolezza per ciò che ci attende.
0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".