OpenAI accusa la Cina per un tentativo di phishing ai danni dei suoi dipendenti

La società pubblica un rapporto sulle minacce e le attività di information war globale, dal quale emerge il blocco di 20 operazioni e tentativi di abuso delle tecnologie di IA
di Andrea Bai pubblicata il 10 Ottobre 2024, alle 11:51 nel canale WebOpenAI
OpenAI ha recentemente rivelato di essere stata oggetto di un tentativo di phishing attribuito ad un gruppo di hacker chiamato SweetSpecter che avrebbe presumibili legami con la Cina. Secondo le informazioni disponibili, l'attacco avrebbe preso di mira i dipendenti della società all'inizio dell'anno, riaccendendo le preoccupazioni sulla sicurezza dei dati sensibili delle principali aziende di IA statunitensi.
La rivelazione è parte dell'ultimo rapporto di intelligence sulle minacce di OpenAI, in cui l'azienda evidenza gli sforzi messi in atto a contrasto delle operazioni di influenza globali. Nel rapporto viene inoltre fatta menzione anche della rimozione di account legati all'Iran e alla Cina che utilizzavano l'IA per vari scopi, tra cui assistenza alla produzione di codice e ricerca.

Secondo quanto riferisce la società, SweetSpecter si è spacciato per un
utente di ChatGPT, inviando e-mail al supporto contenenti allegati
dannosi. Se aperti, questi allegati avrebbero potuto consentire
l'acquisizione di schermate e la sottrazione di dati. OpenAI afferma che le
misure di sicurezza hanno impedito alle e-mail di raggiungere le caselle
di posta aziendali dei dipendenti, sventando così l'attacco.
L'episodio non è il primo di questo genere e rientra all'interno di uno
scenario di crescente tensione tra Stati Uniti e Cina nella
competizione per raggiungere il primato nell'arena dell'intelligenza
artificiale: lo scorso mese di marzo un ex ingegnere di Google è stato
accusato di aver sottratto segreti commerciali a vantaggio di un'azienda
cinese.
Il governo cinese ha sempre negato il coinvolgimento in questo genere di vicende e ha respinto anche le accuse secondo le quali gruppi all'interno del paese siano impegnate a compiere attacchi informatici, sostenendo invece che vi siano gruppi esterni al Paese interessate ad organizzare campagne diffamatorie.
Il rapporto di OpenAI fa inoltre luce su altri episodi in cui diversi attori di minaccia hanno cercato di sfruttare ChatGPT e i modelli di intelligenza artificiale anche per condurre campagne di disinformazione e per influenzare gli esiti di importanti appuntamenti elettorali.
"Dall'inizio dell'anno, abbiamo bloccato più di 20 operazioni e reti ingannevoli in tutto il mondo che hanno tentato di utilizzare i nostri modelli. Per comprendere i modi in cui gli attori di minaccia tentano di utilizzare l'IA, abbiamo analizzato l'attività che abbiamo bloccato, identificando una serie iniziale di tendenze che riteniamo possano informare il dibattito su come l'IA si inserisce nel più ampio panorama delle minacce. Oggi pubblichiamo l'ultimo rapporto di intelligence sulle minacce di OpenAI, che rappresenta un'istantanea della nostra comprensione a ottobre 2024" ha dichiarato la società.
Il report completo è consultabile qui.
0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".