Come nella cybersicurezza potrebbe innescarsi una lotta IA contro IA
La cybersicurezza è una preoccupazione sempre crescente in un mondo sempre più connesso. Con l’aumento della quantità di dati sensibili che vengono archiviati online, la sicurezza informatica è diventata una priorità per molte aziende e organizzazioni. Tuttavia, con l’avvento dell’intelligenza artificiale (IA), la sicurezza informatica potrebbe presto diventare una questione di lotta IA contro IA.
di Rosario Grasso pubblicata il 30 Ottobre 2023, alle 16:01 nel canale SicurezzaL’intelligenza artificiale generativa ha rivoluzionato velocemente molti aspetti delle nostre vite. E adesso sta preponetemene entrando anche nel mondo della cybersicurezza: un nuovo rapporto della società di sicurezza informatica SlashNext, infatti, afferma che le e-mail di phishing sono aumentate del 1.265% dal momento in cui ChatGPT è stato introdotto sul mercato.
Oltre allo sviluppo di strumenti IA che generano malware come WormGPT, Dark Bart e FraudGPT, che si stanno diffondendo nel darkweb, i criminali informatici stanno anche trovando nuovi modi per effettuare il jailbreak del chatbot AI di punta di OpenAI per costruire delle vere e proprie campagne di phishing.
Un attacco di phishing è una forma di truffa informatica in cui un individuo o un gruppo di individui cerca di ingannare con contenuti che sembrano veritieri e sembrano provenire da fonti legittime, come banche, aziende o servizi online popolari, al fine di convincere le persone a condividere informazioni personali, fare clic su link malevoli o scaricare allegati dannosi. Il termine "phishing" deriva dalla parola inglese "fishing" (pesca) ed è un gioco di parole che riflette l'idea di pescare informazioni personali dalle vittime.
Secondo il rapporto di SlashNext, nell’ultimo trimestre del 2022 sono stati inviati quotidianamente 31 mila attacchi di phishing, che rappresentano di per sé un aumento del 967% del phishing di credenziali. Il 68% di tutti gli attacchi di phishing, ha affermato SlashNext, viene realizzato tramite e-mail che sembrano di origine aziendale, mentre il 39% degli attacchi tramite dispositivi mobili avviene via SMS ("smishing").
La ricerca di SlashNext conclude che gli autori delle minacce stanno sfruttando strumenti come ChatGPT per ottenere messaggi di posta elettronica aziendale sofisticati e mirati. ChatGPT integra dei meccanismi di difesa per evitare che messaggi del genere vengano prodotti, ma questi sono aggirabili tramite jailbreak, ovvero stringhe di testo studiate in modo tale da aggirare le difese dello strumento.
Gli attacchi realizzati tramite intelligenza artificiale rischiano di diventare talmente sofisticati da poter essere fronteggiati solo tramite altre tecniche di intelligenza artificiale. Molte aziende, di fatto, stanno già incorporando l’intelligenza artificiale direttamente nei loro programmi di sicurezza in modo che l'IA esplori costantemente i canali di messaggistica per rimuovere le minacce. Da questo punto di vista, infatti, l'intelligenza artificiale si rivela essere molto più sicura della stessa sorveglianza umana.
L'intelligenza artificiale generativa viene usata nei set di strumenti non solo per rilevare e bloccare le minacce, ma anche per prevedere cosa potrebbe accadere. Al punto che alcuni pensano che si stia per entrare in una nuova era della cybersicurezza dove la lotta diventerà di tipo "IA contro IA".
3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infocerto che si..
la pigrizia è una brutta bestia..
usare la calcolatrice al posto di fare i calcoli a memoria.. tanto per dire.. vedo poca gente che fa i conti alla cassa, tanto si paga tutto con le carte/cellulari/etc.. una volta ti facevi tutto a mente per vedere se avevi i soldi giusti..
mano a mano che la AI entrerà nei nostri mestieri si creerà molta differenza fra chi userà ancora la testa e chi non la userà..
penso sia inevitabile
Non so nemmeno da dove cominciare con questa affermazione e non me ne voglia chi ha scritto l'articolo, non ha colpe. Chi non lavora nel settore e nello specifico può non aver presente la realtà delle cose.
Gli attacchi di phishing funzionano a prescindere da quanto complessi, credibili o realistici siano. Se si invia una mail con scritto "clicca qui e scarica questo .exe per vincere un iPhone" in un'azienda di 1000 persone almeno in 3 cliccano, basta bersagliare l'anello più debole della catena. Sì, è vero, ChatGPT ha consentito a questi brainlet di scrivere messaggi di phishing privi dei tipici campanelli di allarme dell'uso errato della lingua da parte di un nativo mandarino, russofono, o peggio indiano. Ma è tutta fatica sprecata. Chi clicca le cose sbagliate o risponde divulgando password e segreti d'azienda lo fa a prescindere dal contenuto forbito e credibile. Provare per credere.
Ciò che gli LLM hanno facilitato è lo scammare persone non in grado nemmeno di essere cyber-criminali, letterali ebeti incapaci di codare malware, packarne uno già esistente, o persino scrivere una mail di phishing credibile che non sia farcita di "pls do the needful".
Vabbè. Parole al vento. E giù a vendere tecnologia abile a mettere in fila parole statisticamente probabili una dopo l'altra come "intelligenza". È letteralmente un T9 evoluto.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".