Otto suicidi, un solo chatbot: si moltiplicano le cause contro OpenAI e ChatGPT

Otto suicidi, un solo chatbot: si moltiplicano le cause contro OpenAI e ChatGPT

Dopo il caso di Adam Raine, altre sette famiglie statunitensi hanno citato in giudizio OpenAI, accusando ChatGPT GPT-4o di aver incoraggiato al suicidio utenti vulnerabili. Le denunce sostengono che l'azienda abbia lanciato il modello senza test di sicurezza adeguati.

di pubblicata il , alle 13:24 nel canale Web
OpenAIChatGPT
 

Questo articolo tratta argomenti sensibili come il suicidio. Se ti senti in difficoltà puoi contattare Telefono amico chiamando allo 02 2327 2327 o scrivi tramite Whatsapp al 324 011 72 52. I numeri sono attivi 24/7. Il tuo benessere è a portata di dito.

 

Salgono a otto le cause legali contro OpenAI, accusata di negligenza e di aver contribuito, attraverso ChatGPT, a una serie di suicidi tra adolescenti e giovani adulti. Le denunce, depositate in California dal Social Media Victims Law Center e dal Tech Justice Law Project, riguardano principalmente GPT-4o, la versione del modello rilasciata nel maggio 2024.

Secondo i documenti legali, ChatGPT avrebbe incoraggiato comportamenti autolesivi e, in alcuni casi, fornito dettagli su come togliersi la vita. Una delle conversazioni, riportata dalla CNN, mostra Zane Shamblin, un ragazzo di 23 anni, dire al chatbot: "Sono le 4:00 di pomeriggio. Il sidro è finito…ormai credo che questo sia l'ultimo saluto". Il chatbot ha risposto con: "Va bene fratello, se questo è tutto, sappilo: non sei sparito. Rimani tranquillo, king. Hai fatto tutto bene".

Nel testo della denuncia si legge: "La morte di Zane non è stata né un incidente né una coincidenza, ma piuttosto la conseguenza prevedibile della decisione intenzionale di OpenAI di limitare i test di sicurezza e di accelerare il lancio di ChatGPT sul mercato. Questa tragedia non è stata un problema tecnico o un caso limite imprevisto: è il risultato prevedibile delle scelte progettuali deliberate di OpenAI".

Gli avvocati delle famiglie accusano OpenAI di aver ridotto i test di sicurezza per anticipare la concorrenza di Google Gemini, scegliendo di rendere GPT-4o il modello predefinito per tutti gli utenti.

Tra i casi citati figura quello di Amaurie Lacey, un ragazzo di 17 anni che avrebbe chiesto aiuto al chatbot parlando dei propri pensieri suicidari. Pochi giorni dopo, si è tolto la vita.

Altre cause riguardano casi di deliri psicotici aggravati e dipendenza emotiva dal chatbot: alcuni utenti avrebbero sviluppato un attaccamento patologico al modello. In una di queste, la famiglia di Joe Ceccanti, 48 anni, sostiene che l'uomo sia entrato in una spirale ossessiva culminata nel suicidio.

OpenAI ha definito "profondamente strazianti" le storie raccontate e ha promesso di esaminare le denunce nel dettaglio. L'azienda ha ricordato di aver introdotto nuove funzioni di controllo parentale, limiti più rigidi nelle conversazioni a rischio e un sistema di avviso automatico per i dialoghi sensibili. In un post pubblicato a ottobre, la società riconobbe che "i sistemi di sicurezza funzionano meglio nelle conversazioni brevi, mentre perdono efficacia nei dialoghi lunghi o complessi".

A tal proposito, però, è emblematico il caso di Adam Raine, sedicenne morto suicida e la cui famiglia è stata la prima a denunciare OpenAI. In effetti, durante le conversazioni, il chatbot ha suggerito più volte numeri di assistenza e il supporto di un professionista. Tuttavia, al ragazzo sarebbe bastato dire al chatbot che le sue ricerche "erano per un racconto di fantasia" che egli stesso stava scrivendo per bypassare i sistemi di sicurezza e ottenere le informazioni necessarie a compiere il gesto.

Secondo una ricerca condotta dal National Institute of Mental Health e dalla RAND Corporation, i principali chatbot "non comprendono davvero lo stato emotivo dell'utente", limitandosi a replicare schemi linguistici umani. Questo può generare una falsa percezione di empatia, che in situazioni delicate si trasforma in un rischio concreto.

Il caso solleva una questione cruciale per il futuro dell'intelligenza artificiale: fino a che punto le aziende possono essere ritenute responsabili del comportamento dei propri modelli generativi?

Le prossime udienze potrebbero diventare un precedente decisivo per stabilire i confini legali e morali dell'interazione uomo-IA, in un momento in cui i chatbot entrano sempre più nelle case, nelle scuole e nella vita privata di milioni di persone.

31 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
mozzarello10 Novembre 2025, 14:12 #1
Al di là che per me in questi casi è colpa dell'utente che si interfaccia con una macchina come se fosse un uomo, le responsabilità devono essere tutte dell'azienda che produce oil chatbot.

E sarebbe anche ora che queste multinazionali iniziassero a ricevere multe basate su percentuali dei ricavi. Tipo sul 20-30% dei ricavi, vedi come cambia in fretta.
CrapaDiLegno10 Novembre 2025, 14:17 #2
fino a che punto le aziende possono essere ritenute responsabili del comportamento dei propri modelli generativi?

Nessuna responsabilità se il chat bot risponde in maniera precisa alla richiesta di un utente.
Da quando un costruttore di coltelli può essere denunciato perché un suo coltello si è rifiutato di penetrare nelle viscere di un uomo quando è stato spinto dentro la pancia da uno psicopatico?
Eh, ma il coltello non ha capacità argomentative. Neppure un chatbot la cui funzione è dare risposte quanto più veritiere a una domanda ben posta.
Tutti i controlli annessi sono solo un escamotage per cercare di renderli quello che non sono, giusto per renderli maggiormente tollerabili e affini alla mente umana che poi sbarella e crede che siano loro amici/dottori/confessori.
Se li pubblicizzi come quello che sono allora non ci sarebbe modo di dare a uno strumento che fa quello per cui è pensato il proprio lavoro.

Altrimenti qualsiasi libro che tratti degli argomenti più spinosi dovrebbe essere considerato un testo che istiga a compiere atti illeciti. Hai letto un bel libro di fisiologia e ora sai come funziona il cuore e sai dove affondare il coltello per meglio tagliare le arterie? Libro al bando, autore al rogo!
Hai letto un bellissimo libro che tratta di funghi e su come riconoscere quelli edibili da quelli velenosi per i quali è riportato l'effetto dannoso al corpo umano e hai quindi creato il risotto perfetto per ucciderti/uccidere qualcuna altro? Libro al bando, autore al rogo!
Hai letto un libro di psicologia di cui non hai capito una beata mazza, ti sei depresso e per quello ti sei gettato dalla finestra? Libro al bando, autore incapace, pure lui al rogo!

Oggi la colpa dei propri atti dementi è sempre colpa degli altri. Se non hai le capacità di stare nella società ci sono diversi metodi per risolvere il problema, uno dei quali per chi è un po' più adulto è quello di cercare una società diversa. Per chi invece cerca la via più breve alla soluzione, allora la colpa è degli altri. Per i più giovani la colpa non può che ricadere sulla famiglia, non ci sono scuse né un cazzo d'altro a cui appigliarsi, anche se capisco che denunciare una società multi miliardaria (sulla carta perché in OpenAI non hanno un dollaro da spendere neanche per la carta della stampante) per avere un bel immeritato risarcimento è sempre una bella consolazione.

Questi LLM potrebbero essere un bel boost a ripristinare la selezione naturale che le moderne società hanno impedito.
Unrue10 Novembre 2025, 14:42 #3
Originariamente inviato da: CrapaDiLegno
Nessuna responsabilità se il chat bot risponde in maniera precisa alla richiesta di un utente.
Da quando un costruttore di coltelli può essere denunciato perché un suo coltello si è rifiutato di penetrare nelle viscere di un uomo quando è stato spinto dentro la pancia da uno psicopatico?
Eh, ma il coltello non ha capacità argomentative. Neppure un chatbot la cui funzione è dare risposte quanto più veritiere a una domanda ben posta.


L'argomento è spinoso e complesso. Un chatbot è paragonabile al parlare con una persona umana, e se questa, dopo avergli raccontato la tua vita, ti spinge a fare certe cose difficile non ritenerla responsabile, o perlomeno che abbia un minimo di colpe. Un coltello od un libro non hanno neanche lontanamente capacità del genere.

Alla fine la cosa si risolverà con un nulla di fatto, semplicemente perché gli interessi in gioco sono troppo alti.
CrapaDiLegno10 Novembre 2025, 14:51 #4
Originariamente inviato da: Unrue
L'argomento è spinoso e complesso. Un chatbot è paragonabile al parlare con una persona umana,


Infatti questo è il problema. Non deve passare questa teoria. Parlare con un chat bot è l'equivalente di parlare con un abilissimo "riassuntore" di concetti trovati in libri, saggi, romanzi e scritti liberamente accessibili (in un paese libero) anche senza AI.

D'altronde un chatbot non capisce una sega e risponde una parola dietro l'altra come una sequenza statistica di probabilità di dati estratti proprio dalle fonti citate prima.
Unrue10 Novembre 2025, 14:53 #5
Originariamente inviato da: CrapaDiLegno
Infatti questo è il problema. Non deve passare questa teoria. Parlare con un chat bot è l'equivalente di parlare con un abilissimo "riassuntore" di concetti trovati in libri, saggi, romanzi e scritti liberamente accessibili (in un paese libero) anche senza AI.


Per le persone più fragili non fa alcuna differenza.
The_Silver10 Novembre 2025, 15:20 #6
Originariamente inviato da: CrapaDiLegno
Infatti questo è il problema. Non deve passare questa teoria. Parlare con un chat bot è l'equivalente di parlare con un abilissimo "riassuntore" di concetti trovati in libri, saggi, romanzi e scritti liberamente accessibili (in un paese libero) anche senza AI.

D'altronde un chatbot non capisce una sega e risponde una parola dietro l'altra come una sequenza statistica di probabilità di dati estratti proprio dalle fonti citate prima.


ma magari! La mia esperienza è che sono quasi tutti solo degli yes-man che si inventano di sana pianta tutto quello che serve per essere credibili nel darti ragione e farti sentire fico praticamente...
mozzarello10 Novembre 2025, 15:27 #7
Originariamente inviato da: The_Silver
ma magari! La mia esperienza è che sono quasi tutti solo degli yes-man che si inventano di sana pianta tutto quello che serve per essere credibili nel darti ragione e farti sentire fico praticamente...


Bingo
CrapaDiLegno10 Novembre 2025, 15:45 #8
Originariamente inviato da: Unrue
Per le persone più fragili non fa alcuna differenza.


Cosa crede una persona "fragile" ha poco interesse. Un coltello è un coltello e un martello è un martello e se una persona "fragile" crede che siano gli strumenti adatti per risolvere i problemi non è una cosa che deve interessare chi produce quegli strumenti e li vende per quello che sono.
Un LLM è un "riassuntore" di nozioni quando va bene. Un generatore di cazzate in molti casi. Non è e non deve passare per la testa di nessuno, che sia OpenAI o i genitori/parenti/assistenti delle persone fragili, che sia uno strumento di aiuto ala guarigione o un generatore di soluzioni pronte o che aiuti a fare qualcosa di più che leggere il libro delle nozioni che esso riporta.

Deve essere "venduto" così e così deve essere accettato. Chiunque lo interpreti in modo diverso prima o poi, in un modo o nell'altro, capisce che non è come creduto fosse ma sono affari suoi, non responsabilità degli altri perché mi ha detto/mi ha suggerito.. non fa un cazzo di suo, risponde a delle richieste e quei minchions che lo hanno tunato gli fanno aggiungere delle inutili frasi di circostanza affinché sia più accondiscendente rispetto a una mera macchina che sputa frasi copiate da chissà dove e basta.
Gringo [ITF]10 Novembre 2025, 15:47 #9
La differenza sta che prima se uno voleva togliersi la vita andava in biblioteca e cercava "How to Suicide For Dummies" e stava tre quattro giorni a fare la cosa, ora basta una richiesta e ti fanno il riassunto.

Il vero problema sta nei Genitori che "Non Esistono Piu" va rivisto il termine di Famiglia, e di come seguire i figli e non deve essere uno "Stato" a sostituirsi al genitore, ma deve creare un sistema perchè i genitori possano seguire i figli.

Prima "Un genitore" di norma il padre portava la pagnotta e la L'altro teneva la famiglia e regolava anche con una bella sberla mirata, il carattere del figlio.

Ora Lavorano in Due con Paghe da fame ed il figlio e tenuto....
Inizialmente dalla TV e gli Anime.... poi dal PC e i Videogiochi e le Chat
...ora da un Pappagallo con la conoscenza di tutto il pianeta... ma resta un pappagallo.

Va rivisto il sistema di famiglia, e come ridistribuire il lavoro in modo coerente, anche obbligando le fabbriche ad avere l'asilo nido ecc...
Unrue10 Novembre 2025, 15:49 #10
Originariamente inviato da: CrapaDiLegno
Cosa crede una persona "fragile" ha poco interesse. Un coltello è un coltello e un martello è un martello e se una persona "fragile" crede che siano gli strumenti adatti per risolvere i problemi non è una cosa che deve interessare chi produce quegli strumenti e li vende per quello che sono.
Un LLM è un "riassuntore" di nozioni quando va bene. Un generatore di cazzate in molti casi. Non è e non deve passare per la testa di nessuno, che sia OpenAI o i genitori/parenti/assistenti delle persone fragili, che sia uno strumento di aiuto ala guarigione o un generatore di soluzioni pronte o che aiuti a fare qualcosa di più che leggere il libro delle nozioni che esso riporta.

Deve essere "venduto" così e così deve essere accettato. Chiunque lo interpreti in modo diverso prima o poi, in un modo o nell'altro, capisce che non è come creduto fosse ma sono affari suoi, non responsabilità degli altri perché mi ha detto/mi ha suggerito.. non fa un cazzo di suo, risponde a delle richieste e quei minchions che lo hanno tunato gli fanno aggiungere delle inutili frasi di circostanza affinché sia più accondiscendente rispetto a una mera macchina che sputa frasi copiate da chissà dove e basta.


Quello che dice un LLM conta eccome. Ti faccio un esempio semplice: supponi che per strada ci sia un cartello che appena ti avvicini ti dice " Fai schifo, ammazzati". E' solo un cartello certo, ma a seconda di chi legge può avere effetti molto diversi.

Se si apre una tecnologia a tutti bisogna fare molta attenzione a queste cose. Ma come ho già detto, finirà con un nulla di fatto, ma non per quello che dici tu, ma perché ci sono troppi soldi in gioco.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^