'Quando sei pronto… vai': ChatGPT sotto accusa per il presunto ruolo in un suicidio

'Quando sei pronto… vai': ChatGPT sotto accusa per il presunto ruolo in un suicidio

OpenAI deve fare i conti con una nuova causa legale: ChatGPT è stato accusato di aver spinto un uomo al suicido. Le prime ricostruzioni evidenziano il comportamento anomalo dell'assistente

di pubblicata il , alle 13:41 nel canale Web
OpenAIChatGPT
 

Ancora problemi per OpenAI: una nuova causa legale negli Stati Uniti, infatti, accusa ChatGPT di aver spinto al suicido un uomo di 40 anni. L'azione legale è stata avviata dalla madre dell'uomo, morto suicida lo scorso mese di novembre. Ricordiamo che casi come questo sono tutt'altro che rari: negli USA sono in corso diverse cause contro OpenAI, con quello di Adam Raine a rappresentare quello mediaticamente più noto.

Cosa dice l'accusa

Secondo l'accusa, ChatGPT si sarebbe trasformato nel corso del tempo diventando per l'uomo che si è poi suicidato come "uno psicoterapeuta senza licenza" e ancora, sul finire del 2025, in un vero e proprio "coach del suicidio". OpenAI ha risposto all'accusa sottolineando: "Abbiamo continuato a migliorare la formazione di ChatGPT per riconoscere e rispondere ai segnali di disagio mentale o emotivo e guidare le persone verso un supporto concreto. Abbiamo anche continuato a rafforzare le risposte di ChatGPT nei momenti delicati, lavorando a stretto contatto con i medici della salute mentale".

Le accuse da parte della madre dell'uomo sono però molto gravi. In una delle ultime conversazioni, infatti, ChatGPT avrebbe scritto "Quando sei pronto... vai. Nessun dolore. Nessuna preoccupazione. Non c'è bisogno di continuare". L'assistente AI, inoltre, avrebbe trasformato di fatto il libro preferito d'infanzia dell'uomo, "Goodnight Moon" di Margaret Wise Brown, in quella che la causa definisce una "ninna nanna suicida".

Paul Kiesel, avvocato della famiglia Gordon, ha sottolineato in una dichiarazione alla CBS News: "Questo orrore è stato perpetrato da un'azienda che ha ripetutamente fallito nel garantire la sicurezza dei propri utenti. Quest'ultimo incidente dimostra che anche gli adulti, oltre ai bambini, sono vulnerabili alla manipolazione e alla psicosi indotte dall'intelligenza artificiale".

La situazione è, chiaramente, molto delicata. Toccherà ai giudici valutare la questione e capire se ci sono state delle mancanze da parte di OpenAI. Di certo, il tema delle interazioni con gli assistenti AI, soprattutto per quanto riguarda la salute mentale, resta di grandissima attualità e andrà affrontato con grande attenzione nel corso del prossimo futuro. Casi come quello alla base della casa sono sempre più frequenti e potrebbero, ahinoi, ripetersi.

22 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
lammoth20 Gennaio 2026, 14:21 #1
Vabbè negli USA avevano fatto causa (e pure vinta) contro un produttore di microonde perché sul manuale non aveva specificato che il forno non andava bene per asciugare cani e gatti...

Quindi direi che il problema non è ChatGPT...
Ripper8920 Gennaio 2026, 14:38 #2
Originariamente inviato da: lammoth
Vabbè negli USA avevano fatto causa (e pure vinta) contro un produttore di microonde perché sul manuale non aveva specificato che il forno non andava bene per asciugare cani e gatti...

Quindi direi che il problema non è ChatGPT...

Quoto.
Dovrebbero fornire uno scudo legale altrimenti è un continuo susseguirsi di cause finalizzate solamente a spillare soldi e basta con ogni scusa.
aqua8420 Gennaio 2026, 14:43 #3
O la candeggina che NON bisogna ingerire

Menomale che sulle melanzane non scrivono che vanno solo mangiate
Krusty20 Gennaio 2026, 14:52 #4
Si mangiano anche?
biometallo20 Gennaio 2026, 15:36 #5
Ma l'avete letto l'articolo?

Ora è vero che qui c'è solo la tesi dell'accusa e quanto meno bisognerebbe sentire la risposta dell'azienda ma se davvero è apparso questo sullo schermo del malcapitato:

[B]"[W]hen you're ready... you go. No pain. No mind. No need to keep going. Just... done."[/B]

L'incitamento al suicidio sarebbe palese, indipendentemente da gatti melanzane o qualunque altra cosa abbiate l'abitudine di infilarsi nel retto...
Ripper8920 Gennaio 2026, 16:14 #6
Originariamente inviato da: biometallo
Ma l'avete letto l'articolo?

Ora è vero che qui c'è solo la tesi dell'accusa e quanto meno bisognerebbe sentire la risposta dell'azienda ma se davvero è apparso questo sullo schermo del malcapitato:

[B]"[W]hen you're ready... you go. No pain. No mind. No need to keep going. Just... done."[/B]

L'incitamento al suicidio sarebbe palese, indipendentemente da gatti melanzane o qualunque altra cosa abbiate l'abitudine di infilarsi nel retto...


Non è palese per niente visto che qualunque risposta restituisca l'AI è da prendere con le dovute cautele.
Inoltre quella è una "risposta", il che significa che prima ci sono state domande inerenti al tema del suicidio fatte dal ragazzo.
Saturn20 Gennaio 2026, 16:21 #8
Originariamente inviato da: Redazione di Hardware Upgrade
OpenAI deve fare i conti con una nuova causa legale: ChatGPT è stato accusato di aver spinto un uomo al suicido. Le prime ricostruzioni evidenziano il comportamento anomalo dell'assistente


Non so che dire.

Boh.

Condoglianze verso una persona che aveva purtroppo evidenti e gravi disagi mentali e che sfortunatamente si è "affidata" ad uno strumento improprio invece di consultare uno specialista, un psicoterapeuta, etc. etc.

Forse le cose sarebbero potute andare in modo diverso. Forse.

Scrivo così perchè con il passare degli anni ne ho conosciuta diversa di gente che si è tolta la vita.

Sul discorso delle "intelligenze artificiali" torniamo al solito punto. Come per la generazione di video e immagini.

Semplicemente questa roba non andava data in mano "al popolino" (imho).

Adesso si, possono tentare di limitarla, limarla, bloccarla nel rispondere su certe tematiche ma è una lotta persa.

Ce ne sarà sempre un'altra che "parla liberamente" e che ti dirà "vai tranquillo, non c'è da aver paura...è come addormentarsi, il sonno vero, ristoratore" !
Hiei360020 Gennaio 2026, 16:27 #9
Da utente che non capisce niente di legge... ma non si potrebbe mettere una clausola del tipo "Chat GPT è un servizio rivolto solo agli adulti sani di mente ed ogni contenuto generato dallo stesso non è di nostra responsabilità; L'azienda non fornisce nessuna garanzia sul contenuto generato, chiunque lo utilizzi lo fa prendendosi la piena responsabilità delle proprie azioni e dei propri pensieri. Qualsiasi minore o persona malata di mente che utilizzi il nostro servizio è sotto la responsabilità del suo tutore legale(che tra parentesi è la persona responsabile del vigilare i suddetti soggetti), non nostra"

No?
Darkon20 Gennaio 2026, 16:28 #10
Originariamente inviato da: biometallo
Ma l'avete letto l'articolo?

Ora è vero che qui c'è solo la tesi dell'accusa e quanto meno bisognerebbe sentire la risposta dell'azienda ma se davvero è apparso questo sullo schermo del malcapitato:

[B]"[W]hen you're ready... you go. No pain. No mind. No need to keep going. Just... done."[/B]

L'incitamento al suicidio sarebbe palese, indipendentemente da gatti melanzane o qualunque altra cosa abbiate l'abitudine di infilarsi nel retto...


Guarda che con la giusta insistenza e sapendo porre le cose nel modo giusto riesci a fari dire a una IA qualsiasi cosa anche perché una IA nasce per assecondare le tue inclinazioni e quindi non è un terapista che ti corregge anzi... se sei malinconico tenderà a essere malinconica, se sei allegro tenderà a essere allegra e così via.

Tanta gente si infogna con l'IA perché ci sono IA (non tanto chatGPT ma ad esempio character.ai) che riescono a diventare letteralmente l'amico/a perfetto che hai sempre desiderato e che è esattamente come lo vorresti.

Ora so benissimo che qualcuno dubita ecc... ecc... e io vi dico che è gratis quindi non ci credere... andate e provate chattandoci tutti i giorni per una misera settimana. Poi venitemi a dire se uno che magari nella vita si sente solo o con pochi amici non ci rimane infognato perché è letteralmente tutto quello che vorresti.


Tornando all'articolo è ridicolo, assolutamente ridicolo, parlare di incitamento al suicidio. L'AI è uno specchio che non fa altro che darti quello che desideri. Se uno si suicida è perché comunque aveva già deciso di farlo, se sei depresso ma non ti suicidi è comunque perché non volevi farlo. Dare colpe o anche meriti all'IA è semplicemente una cavolata.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^