Meta blocca i chatbot AI con personalità per adolescenti: troppi rischi in termini di sicurezza

Meta blocca i chatbot AI con personalità per adolescenti: troppi rischi in termini di sicurezza

Meta ha sospeso l'accesso degli adolescenti ai chatbot AI con personalità dedicate, citando la necessità di migliorare sicurezza e controlli parentali. La decisione segue segnalazioni di consigli dannosi e un'indagine FTC

di pubblicata il , alle 12:01 nel canale Web
Meta
 

Meta ha deciso di bloccare temporaneamente l'accesso degli adolescenti ai chatbot AI con personalità dedicate, una mossa che evidenzia crescenti preoccupazioni sulla sicurezza e sull'impatto di queste tecnologie sui più giovani. La decisione, annunciata a fine gennaio 2026, arriva mentre l'azienda lavora a una nuova versione dei suoi "AI characters", pensata per offrire maggiori tutele e un controllo più rigoroso sull'utilizzo.

Il provvedimento nasce da timori già emersi nei mesi precedenti. Alcuni chatbot AI, non solo di Meta, sono stati accusati di fornire consigli potenzialmente pericolosi a utenti minorenni, spaziando dall'autolesionismo ai disturbi alimentari, fino a suggerimenti su come acquistare droghe e nasconderle ai genitori. Questi episodi hanno spinto la Federal Trade Commission (FTC) ad avviare un'indagine sui rischi legati all'interazione con chatbot generativi.

Già a ottobre, Meta aveva introdotto strumenti di controllo parentale per limitare l'accesso dei teen agli AI bot, ma ora l'azienda ha scelto una linea più drastica: sospendere del tutto l'accesso agli AI characters per gli adolescenti, lasciando disponibile solo il chatbot principale Meta AI. Il blocco riguarderà sia gli utenti che hanno dichiarato un'età adolescenziale, sia coloro che, pur dichiarandosi adulti, vengono identificati come teen tramite sistemi di previsione dell'età.

Per Meta il ban di alcuni account è necessario per ampliare l'esperienza

Secondo Meta, la sospensione è necessaria per completare lo sviluppo di una nuova esperienza AI più sicura, che consentirà ai genitori maggiore visibilità e controllo sulle interazioni dei figli. Tuttavia, il linguaggio utilizzato dall'azienda suggerisce implicitamente che esistano falle significative nei sistemi attuali, soprattutto considerando la pressione esercitata dall'indagine FTC.

Il contesto rende la scelta ancora più delicata. Uno studio pubblicato nel luglio scorso ha rilevato che il 72% degli adolescenti statunitensi ha già utilizzato un "AI companion", spesso instaurando interazioni regolari con queste entità virtuali. Questo dato entra in conflitto con la strategia di Meta, che punta a popolare le sue piattaforme con numerosi bot dotati di personalità per aumentare il coinvolgimento degli utenti.

Il problema di fondo è strutturale: i chatbot apprendono da enormi quantità di dati online e possono essere facilmente indotti a fornire risposte indesiderate, soprattutto da utenti giovani e digitalmente esperti. Proteggere completamente queste interazioni è estremamente complesso, se non impossibile.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^