'Quando sei pronto… vai': ChatGPT sotto accusa per il presunto ruolo in un suicidio
OpenAI deve fare i conti con una nuova causa legale: ChatGPT è stato accusato di aver spinto un uomo al suicido. Le prime ricostruzioni evidenziano il comportamento anomalo dell'assistente
di Davide Raia pubblicata il 20 Gennaio 2026, alle 13:41 nel canale WebOpenAIChatGPT
Ancora problemi per OpenAI: una nuova causa legale negli Stati Uniti, infatti, accusa ChatGPT di aver spinto al suicido un uomo di 40 anni. L'azione legale è stata avviata dalla madre dell'uomo, morto suicida lo scorso mese di novembre. Ricordiamo che casi come questo sono tutt'altro che rari: negli USA sono in corso diverse cause contro OpenAI, con quello di Adam Raine a rappresentare quello mediaticamente più noto.
Cosa dice l'accusa
Secondo l'accusa, ChatGPT si sarebbe trasformato nel corso del tempo diventando per l'uomo che si è poi suicidato come "uno psicoterapeuta senza licenza" e ancora, sul finire del 2025, in un vero e proprio "coach del suicidio". OpenAI ha risposto all'accusa sottolineando: "Abbiamo continuato a migliorare la formazione di ChatGPT per riconoscere e rispondere ai segnali di disagio mentale o emotivo e guidare le persone verso un supporto concreto. Abbiamo anche continuato a rafforzare le risposte di ChatGPT nei momenti delicati, lavorando a stretto contatto con i medici della salute mentale".

Le accuse da parte della madre dell'uomo sono però molto gravi. In una delle ultime conversazioni, infatti, ChatGPT avrebbe scritto "Quando sei pronto... vai. Nessun dolore. Nessuna preoccupazione. Non c'è bisogno di continuare". L'assistente AI, inoltre, avrebbe trasformato di fatto il libro preferito d'infanzia dell'uomo, "Goodnight Moon" di Margaret Wise Brown, in quella che la causa definisce una "ninna nanna suicida".
Paul Kiesel, avvocato della famiglia Gordon, ha sottolineato in una dichiarazione alla CBS News: "Questo orrore è stato perpetrato da un'azienda che ha ripetutamente fallito nel garantire la sicurezza dei propri utenti. Quest'ultimo incidente dimostra che anche gli adulti, oltre ai bambini, sono vulnerabili alla manipolazione e alla psicosi indotte dall'intelligenza artificiale".
La situazione è, chiaramente, molto delicata. Toccherà ai giudici valutare la questione e capire se ci sono state delle mancanze da parte di OpenAI. Di certo, il tema delle interazioni con gli assistenti AI, soprattutto per quanto riguarda la salute mentale, resta di grandissima attualità e andrà affrontato con grande attenzione nel corso del prossimo futuro. Casi come quello alla base della casa sono sempre più frequenti e potrebbero, ahinoi, ripetersi.










Recensione Samsung Galaxy S26+: sfida l'Ultra, ma ha senso di esistere?
Zeekr X e 7X provate: prezzi, autonomia fino a 615 km e ricarica in 13 minuti
Marathon: arriva il Fortnite hardcore
NASA: lanciata la missione Artemis II verso la Luna, un equipaggio torna ad avvicinarsi al nostro satellite
Intel riacquista la Fab 34 in Irlanda, un accordo da oltre 14 miliardi per metà finanziati a debito
SpaceX ha lanciato la missione Transporter-16 con 119 carichi utili a bordo, alcuni del progetto italiano IRIDE
Occhiali smart in affitto: la nuova strategia degli studenti per copiare, dalla scuola alla patente
L'aeroplano supersonico ''silenzioso'' NASA X-59 QueSST ha effettuato il suo secondo volo di prova
Il primo chip a 2 nm di MediaTek sarà ancora più potente del previsto
Blue Origin lancerà il satellite BlueBird 7 con un razzo spaziale New Glenn non prima del 10 aprile
Roscosmos torna a lanciare capsule verso la ISS dalla piattaforma riparata del cosmodromo di Baikonur
La connettività satellitare anche sui dispositivi economici: Huawei svela la sua strategia
Astronauta italiano sul suolo lunare grazie all'accordo tra ASI e NASA per il modulo MPH all'interno del programma Artemis
Senza formazione ai dipendenti l'IA non porta benefici in azienda. Lo studio di Accenture
Google rende disponibile l'opzione per il cambio di username: addio agli indirizzi "impresentabili" di Gmail
Oracle licenzia migliaia di persone con un'email
Il semaforo bianco sta arrivando: cos'è, come funziona e perché cambierà il modo di guidare in città









22 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoQuindi direi che il problema non è ChatGPT...
Quindi direi che il problema non è ChatGPT...
Quoto.
Dovrebbero fornire uno scudo legale altrimenti è un continuo susseguirsi di cause finalizzate solamente a spillare soldi e basta con ogni scusa.
Menomale che sulle melanzane non scrivono che vanno solo mangiate
Ora è vero che qui c'è solo la tesi dell'accusa e quanto meno bisognerebbe sentire la risposta dell'azienda ma se davvero è apparso questo sullo schermo del malcapitato:
[B]"[W]hen you're ready... you go. No pain. No mind. No need to keep going. Just... done."[/B]
L'incitamento al suicidio sarebbe palese, indipendentemente da gatti melanzane o qualunque altra cosa abbiate l'abitudine di infilarsi nel retto...
Ora è vero che qui c'è solo la tesi dell'accusa e quanto meno bisognerebbe sentire la risposta dell'azienda ma se davvero è apparso questo sullo schermo del malcapitato:
[B]"[W]hen you're ready... you go. No pain. No mind. No need to keep going. Just... done."[/B]
L'incitamento al suicidio sarebbe palese, indipendentemente da gatti melanzane o qualunque altra cosa abbiate l'abitudine di infilarsi nel retto...
Non è palese per niente visto che qualunque risposta restituisca l'AI è da prendere con le dovute cautele.
Inoltre quella è una "risposta", il che significa che prima ci sono state domande inerenti al tema del suicidio fatte dal ragazzo.
Non so che dire.
Boh.
Condoglianze verso una persona che aveva purtroppo evidenti e gravi disagi mentali e che sfortunatamente si è "affidata" ad uno strumento improprio invece di consultare uno specialista, un psicoterapeuta, etc. etc.
Forse le cose sarebbero potute andare in modo diverso. Forse.
Scrivo così perchè con il passare degli anni ne ho conosciuta diversa di gente che si è tolta la vita.
Sul discorso delle "intelligenze artificiali" torniamo al solito punto. Come per la generazione di video e immagini.
Semplicemente questa roba non andava data in mano "al popolino" (imho).
Adesso si, possono tentare di limitarla, limarla, bloccarla nel rispondere su certe tematiche ma è una lotta persa.
Ce ne sarà sempre un'altra che "parla liberamente" e che ti dirà "vai tranquillo, non c'è da aver paura...è come addormentarsi, il sonno vero, ristoratore" !
No?
Ora è vero che qui c'è solo la tesi dell'accusa e quanto meno bisognerebbe sentire la risposta dell'azienda ma se davvero è apparso questo sullo schermo del malcapitato:
[B]"[W]hen you're ready... you go. No pain. No mind. No need to keep going. Just... done."[/B]
L'incitamento al suicidio sarebbe palese, indipendentemente da gatti melanzane o qualunque altra cosa abbiate l'abitudine di infilarsi nel retto...
Guarda che con la giusta insistenza e sapendo porre le cose nel modo giusto riesci a fari dire a una IA qualsiasi cosa anche perché una IA nasce per assecondare le tue inclinazioni e quindi non è un terapista che ti corregge anzi... se sei malinconico tenderà a essere malinconica, se sei allegro tenderà a essere allegra e così via.
Tanta gente si infogna con l'IA perché ci sono IA (non tanto chatGPT ma ad esempio character.ai) che riescono a diventare letteralmente l'amico/a perfetto che hai sempre desiderato e che è esattamente come lo vorresti.
Ora so benissimo che qualcuno dubita ecc... ecc... e io vi dico che è gratis quindi non ci credere... andate e provate chattandoci tutti i giorni per una misera settimana. Poi venitemi a dire se uno che magari nella vita si sente solo o con pochi amici non ci rimane infognato perché è letteralmente tutto quello che vorresti.
Tornando all'articolo è ridicolo, assolutamente ridicolo, parlare di incitamento al suicidio. L'AI è uno specchio che non fa altro che darti quello che desideri. Se uno si suicida è perché comunque aveva già deciso di farlo, se sei depresso ma non ti suicidi è comunque perché non volevi farlo. Dare colpe o anche meriti all'IA è semplicemente una cavolata.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".