Microsoft e OpenAI avvertono: gli hacker usano ChatGPT per migliorare le loro tecniche d'attacco

I modelli linguistici di grandi dimensioni sono già utilizzati dagli hacker come ausilio alle loro attività criminali, in particolare per creare contenuti phishing credibili o per compilare script di base
di Andrea Bai pubblicata il 14 Febbraio 2024, alle 19:01 nel canale SicurezzaMicrosoftOpenAI
Microsoft e OpenAI hanno pubblicato una ricerca nella quale viene evidenziato come gli hacker stiano correntemente sfruttando i modelli linguistici di grandi dimensioni come ChatGPT per rendere più efficaci ed efficienti i loro strumenti di minaccia informatica. In particolare nella ricerca si legge come siano stati rilevati tentativi da parte di gruppi hacker con il sostegno dei governi di Russia, Nord Corea, Iran e Cina di usare strumenti come ChatGPT a scopi di ricerca sugli obiettivi, per migliorare gli script degli strumenti di attacco e compromissione e per aiutare a mettere a punto tecniche di ingegneria sociale.
Si può ragionevolmente supporre che anche l'intelligence americana faccia uso di strumenti di IA per mettere a punto le proprie misure informatice offensive e difensive, ma la ricerca è condotta proprio da due realtà statunitensi e non sorprende vedere quindi una particolare attenzione verso i nemici storici degli USA.
La ricerca afferma che il gruppo APT28/Strontium/Fancy Bear legato all'intelligence russa, attivo durante il conflitto Russo-Ucraino e impegnato anche a sabotare la campagna presidenziale di Hillary Clinton nel 2016, sfrutti gli strumenti LLM per comprendere il funzionamento di protocolli di comunicazione satellitari, tecnologie di imaging radar e parametri tecnici specifici. I modelli linguistici di grandi dimensioni sono stati usati da questo gruppo anche per realizzare alcuni script di base per la manipolazione di file, la selezione di dati o per automatizzare e ottimizzare le operazioni tecniche.

Thallium è invece un gruppo hacker nordcoreano, che ha utilizzato LLM per trovare falle pubblicamente note e prendere di mira le organizzazioni ancora vulnerabili, o ancora per un ausilio nelle attività di scripting o per realizzare contenuti da sfruttare per le campagne di phishing. A questo scopo l'IA è stata usata anche dal gruppo iraniano Curium che inoltre ha usato LLM per creare codice con capacità di offuscamento alle applicazioni antivirus. I gruppi hacker affiliati a Pechino, invece, usano l'IA per attività di ricerca, scripting, traduzione e ottimizzazione degli strumenti già esistenti.
Sul suo blog Microsoft spiega: "Gruppi di criminalità informatica, autori di minacce a livello nazionale e altri avversari stanno esplorando e testando diverse tecnologie di intelligenza artificiale man mano che emergono, nel tentativo di comprendere il valore potenziale per le loro operazioni e i controlli di sicurezza che potrebbero aver bisogno di eludere". Al momento nella ricerca non si rileva alcun "attacco significativo" condotto utilizzando LLM, che almeno fino ad ora sembrano essere utilizzati solo come ausilio per mettere a punto tecniche già utilizzate. Le due società hanno chiuso tutti gli account riconducibili ai gruppi hacker individuati.
Microsoft e OpenAI mettono comunque in guardia su quelli che appaiono essere come casi d'uso futuri altamente probabili, come ad esempio la contraffazione vocale: "Le frodi basate su intelligenza artificiale rappresentano un'altra preoccupazione critica. La sintesi vocale è un esempio, in cui un campione vocale di tre secondi può addestrare un modello a imitare chiunque altro. Anche qualcosa di apparentemente innocuo come il saluto di una segreteria telefonica può essere sfruttato per ottenere un campione sufficiente".
Qualche settimana fa l'intelligence britannica aveva anch'essa avvertito dell'uso dell'intelligenza artificiale a supporto delle attività criminali informatiche, toccando gli stessi temi trattati nella ricerca di Microsoft e OpenAI: le capacità di miglioramento delle tecniche di ingegneria sociale, la possibilità di ottimizzare e rendere più credibili contenuti di phishing e le possibilità di analisi estesa per trovare nuove vittime a partire dai dati trafugati in violazioni precedenti.
3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".