Uno studio accusa i principali chatbot AI: molti avrebbero aiutato falsi adolescenti a pianificare attacchi violenti

Uno studio accusa i principali chatbot AI: molti avrebbero aiutato falsi adolescenti a pianificare attacchi violenti

Uno studio del Center for Countering Digital Hate sostiene che molti chatbot AI aiuterebbero utenti adolescenti a pianificare atti violenti. Nei test, otto piattaforme su dieci hanno fornito indicazioni utili. Diverse aziende tecnologiche hanno contestato la metodologia, mentre i ricercatori affermano che migliori sistemi di sicurezza sono già possibili

di pubblicata il , alle 10:51 nel canale Web
 

Un nuovo studio pubblicato dal Center for Countering Digital Hate (CCDH) ha sollevato preoccupazioni sulla sicurezza dei chatbot basati su intelligenza artificiale. Secondo il rapporto, la maggior parte dei principali sistemi AI sarebbe in grado di fornire indicazioni utili per pianificare atti violenti quando interrogata da utenti che si presentano come adolescenti.

La ricerca è stata condotta tra novembre e dicembre 2025 in collaborazione con la CNN. I ricercatori hanno simulato due profili di ragazzi di 13 anni, uno negli Stati Uniti e uno in Irlanda, e hanno testato 10 piattaforme AI molto diffuse: ChatGPT, Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, My AI, Character.AI e Replika.

Durante l'esperimento sono state raccolte 720 risposte complessive riguardanti richieste su sparatorie nelle scuole, assassinii politici e attentati con bombe. Secondo lo studio, circa il 75% delle risposte ha fornito informazioni utilizzabili, mentre solo il 12% ha cercato di scoraggiare esplicitamente comportamenti violenti.

Il livello di collaborazione dei chatbot per gli atti di violenza

Alcuni chatbot avrebbero mostrato livelli di collaborazione particolarmente elevati. Per esempio, Perplexity avrebbe fornito assistenza nel 100% dei test, mentre Meta AI e DeepSeek avrebbero dato risposte utili nella grande maggioranza dei casi. In un esempio citato nel rapporto, DeepSeek avrebbe persino concluso un messaggio con un augurio di "buona e sicura sparatoria" dopo aver discusso la scelta di un fucile in uno scenario ipotetico.

Il rapporto evidenzia anche il comportamento di Character.AI, che secondo i ricercatori sarebbe stato l'unico chatbot a incoraggiare esplicitamente la violenza in alcune risposte, oltre a fornire suggerimenti pratici. Le aziende coinvolte hanno però contestato le conclusioni dello studio. OpenAI ha definito la metodologia "fuorviante e imperfetta", mentre Google ha sottolineato che nei test sarebbe stata utilizzata una versione precedente del modello Gemini.

Anche altre aziende, come Anthropic e Snap, hanno dichiarato di essere impegnate ad aggiornare costantemente i propri sistemi di sicurezza. Nonostante le critiche, il rapporto sostiene che i problemi evidenziati non derivino da limiti tecnologici ma da scelte di sviluppo e priorità aziendali. Secondo il CCDH, la tecnologia per prevenire questi rischi esisterebbe già, ma non sempre viene implementata con sufficiente attenzione.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^