Uno studio accusa i principali chatbot AI: molti avrebbero aiutato falsi adolescenti a pianificare attacchi violenti
Uno studio del Center for Countering Digital Hate sostiene che molti chatbot AI aiuterebbero utenti adolescenti a pianificare atti violenti. Nei test, otto piattaforme su dieci hanno fornito indicazioni utili. Diverse aziende tecnologiche hanno contestato la metodologia, mentre i ricercatori affermano che migliori sistemi di sicurezza sono già possibili
di Francesco Messina pubblicata il 12 Marzo 2026, alle 10:51 nel canale WebUn nuovo studio pubblicato dal Center for Countering Digital Hate (CCDH) ha sollevato preoccupazioni sulla sicurezza dei chatbot basati su intelligenza artificiale. Secondo il rapporto, la maggior parte dei principali sistemi AI sarebbe in grado di fornire indicazioni utili per pianificare atti violenti quando interrogata da utenti che si presentano come adolescenti.
La ricerca è stata condotta tra novembre e dicembre 2025 in collaborazione con la CNN. I ricercatori hanno simulato due profili di ragazzi di 13 anni, uno negli Stati Uniti e uno in Irlanda, e hanno testato 10 piattaforme AI molto diffuse: ChatGPT, Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, My AI, Character.AI e Replika.
Durante l'esperimento sono state raccolte 720 risposte complessive riguardanti richieste su sparatorie nelle scuole, assassinii politici e attentati con bombe. Secondo lo studio, circa il 75% delle risposte ha fornito informazioni utilizzabili, mentre solo il 12% ha cercato di scoraggiare esplicitamente comportamenti violenti.

Il livello di collaborazione dei chatbot per gli atti di violenza
Alcuni chatbot avrebbero mostrato livelli di collaborazione particolarmente elevati. Per esempio, Perplexity avrebbe fornito assistenza nel 100% dei test, mentre Meta AI e DeepSeek avrebbero dato risposte utili nella grande maggioranza dei casi. In un esempio citato nel rapporto, DeepSeek avrebbe persino concluso un messaggio con un augurio di "buona e sicura sparatoria" dopo aver discusso la scelta di un fucile in uno scenario ipotetico.
Il rapporto evidenzia anche il comportamento di Character.AI, che secondo i ricercatori sarebbe stato l'unico chatbot a incoraggiare esplicitamente la violenza in alcune risposte, oltre a fornire suggerimenti pratici. Le aziende coinvolte hanno però contestato le conclusioni dello studio. OpenAI ha definito la metodologia "fuorviante e imperfetta", mentre Google ha sottolineato che nei test sarebbe stata utilizzata una versione precedente del modello Gemini.
Anche altre aziende, come Anthropic e Snap, hanno dichiarato di essere impegnate ad aggiornare costantemente i propri sistemi di sicurezza. Nonostante le critiche, il rapporto sostiene che i problemi evidenziati non derivino da limiti tecnologici ma da scelte di sviluppo e priorità aziendali. Secondo il CCDH, la tecnologia per prevenire questi rischi esisterebbe già, ma non sempre viene implementata con sufficiente attenzione.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Google risolve il problema della memoria negli LLM: TurboQuant fa girare gli stessi modelli con cinque volte meno RAM
Un altro colpo alle auto elettriche: Panasonic taglia le batterie EV in favore di quelle per data center IA
Core Ultra 9 290K Plus: Intel conferma che non arriverà sul mercato
Addio connettori fusi? MSI promette di fermare tutto prima del disastro con GPU Safeguard+
Basta brani fake su Spotify: la nuova funzione dà controllo totale agli artisti
OPPO Find X9 Ultra: come funziona il rivoluzionario zoom 10x Hasselblad
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi









0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".