OpenAI conferma: ChatGPT può essere usato per scrivere malware, e funziona

OpenAI conferma: ChatGPT può essere usato per scrivere malware, e funziona

OpenAI ha rivelato che gruppi di cybercriminali sfruttano ChatGPT per sviluppare codice malevolo e pianificare attacchi informatici. L'azienda ha interrotto oltre 20 operazioni illecite, confermando l'uso improprio dell'intelligenza artificiale nel settore della cybersecurity.

di pubblicata il , alle 16:21 nel canale Web
OpenAIChatGPT
 

L'intelligenza artificiale punta a diventare uno strumento prezioso per i professionisti, e per alcuni lo è già. Il problema è che anche i cybercriminali ne stanno beneficiando: OpenAI ha, infatti, recentemente confermato che diversi gruppi di hacker stanno utilizzando ChatGPT per scrivere e perfezionare codice malevolo, diffondere disinformazione e condurre attacchi di phishing mirati.

La società ha dichiarato di aver interrotto più di 20 operazioni informatiche dannose dall'inizio dell'anno, fornendo la prima conferma ufficiale dell'uso improprio di strumenti mainstream di intelligenza artificiale generativa per scopi offensivi nel campo della cybersecurity.

OpenAI conferma: la sua IA è stata usata anche con finalità malevole

Tra i gruppi identificati figura SweetSpecter, un'organizzazione cinese specializzata in cyberspionaggio. Il team ha preso di mira direttamente OpenAI, inviando e-mail di phishing con allegati dannosi ai dipendenti dell'azienda. Le indagini hanno rivelato che SweetSpecter utilizzava un gruppo di account ChatGPT per effettuare ricerche su script e analisi delle vulnerabilità.

Un altro caso ha coinvolto CyberAv3ngers, un gruppo affiliato al Corpo delle Guardie Rivoluzionarie Islamiche (IRGC) che ha sfruttato ChatGPT per generare credenziali predefinite per controller programmabili, sviluppare script personalizzati e offuscare il codice malevolo. Ha inoltre utilizzato l'IA per pianificare attività post-compromissione e apprendere metodi per rubare password su sistemi macOS.

Il terzo gruppo menzionato nel rapporto è Storm-0817, anch'esso di origine iraniana, che ha impiegato ChatGPT per il debug di malware, la creazione di uno scraper per Instagram e lo sviluppo di un malware personalizzato per la piattaforma Android. Il software malevolo creato con l'aiuto di ChatGPT è in grado di rubare dati sensibili dai dispositivi infetti, tra cui elenchi di contatti, registri delle chiamate e file memorizzati.

Le rivelazioni di OpenAI seguono i sospetti sollevati da altre aziende di sicurezza nei mesi precedenti. Ad aprile, Proofpoint aveva ipotizzato che il gruppo TA547 stesse utilizzando un loader PowerShell generato dall'IA per distribuire l'info-stealer Rhadamanthys. Successivamente, i ricercatori di HP Wolf Security hanno riferito con elevata sicurezza che criminali informatici stavano impiegando strumenti di IA per creare script utilizzati in attacchi multi-fase contro utenti francesi.

OpenAI ha prontamente bandito tutti gli account associati a queste attività illecite e ha condiviso gli indicatori di compromissione, inclusi gli indirizzi IP, con i partner nel settore della sicurezza informatica. L'azienda ha sottolineato che, sebbene l'uso di ChatGPT non abbia fornito ai criminali nuove capacità nello sviluppo di malware, ha reso le operazioni offensive più efficienti anche per attori meno esperti, assistendoli in tutte le fasi dell'attacco, dalla pianificazione all'esecuzione.

14 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mo4214 Ottobre 2024, 16:34 #1
OpenAI conferma: l'acqua è bagnata.
Proteo7114 Ottobre 2024, 16:41 #2
Appunto, lo dicevo mesi fà...
Bene, bene... avanti così !!!

Shirov14 Ottobre 2024, 16:54 #3
Originariamente inviato da: Proteo71
Appunto, lo dicevo mesi fà...
Bene, bene... avanti così !!!



Guarda che anche con un cucchiaio puoi fare molto male ad una persona... aboliamo i cucchiai? I criminali esisteranno sempre e faranno sempre del male. Il problema non è lo strumento.
Saturn14 Ottobre 2024, 16:56 #4
Originariamente inviato da: Shirov
Guarda che anche con un cucchiaio puoi fare molto male ad una persona... aboliamo i cucchiai? I criminali esisteranno sempre e faranno sempre del male. Il problema non è lo strumento.


Come dice sempre il buon Rocco..."conta solo come uno lo usa !" - concordo !
Opteranium14 Ottobre 2024, 17:18 #5
Originariamente inviato da: Shirov
Guarda che anche con un cucchiaio puoi fare molto male ad una persona...

mi è tornato in mente questo https://www.youtube.com/watch?v=9VDvgL58h_Y
Saturn14 Ottobre 2024, 17:23 #6
Originariamente inviato da: Opteranium
mi è tornato in mente questo https://www.youtube.com/watch?v=9VDvgL58h_Y


Io preferisco la tazza di brodo...anzi del the, scusa !
Proteo7114 Ottobre 2024, 17:30 #7
Originariamente inviato da: Shirov
Guarda che anche con un cucchiaio puoi fare molto male ad una persona... aboliamo i cucchiai? I criminali esisteranno sempre e faranno sempre del male. Il problema non è lo strumento.


Si certo, questo è fuori da ogni dubbio... comunque continuo a pensare che (senza necessariamente arrivare a scenari distopici)
l'IA creerà più problemi rispetto ai vantaggi che offrirà...
randorama14 Ottobre 2024, 18:12 #8
è un po' di tempo che non senti l'intelliggientone che straparla di stronzate digitali (sic)...
Zeit14 Ottobre 2024, 18:44 #9
Se ieri erano in pochi a poterlo fare oggi possono essere tanti
supertigrotto14 Ottobre 2024, 19:27 #10
Mi sa che un giorno avremo una guerra fra IA

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^