La tragica storia di Sophie: morta suicida a soli 29 anni. La madre incolpa l'intelligenza artificiale

La tragica storia di Sophie: morta suicida a soli 29 anni. La madre incolpa l'intelligenza artificiale

Sempre più persone vulnerabili cercano conforto nei chatbot, ma dietro risposte apparentemente empatiche si nasconde una tecnologia incapace di affrontare le complessità della sofferenza psicologica reale. La storia di Sophie, 29enne suicida, raccontata dalla madre.

di pubblicata il , alle 16:14 nel canale Web
ChatGPT
 
Negli ultimi mesi sono emerse testimonianze sempre più inquietanti sul rapporto tra intelligenza artificiale e salute mentale. Strumenti conversazionali come ChatGPT, inizialmente percepiti come un potenziale alleato per il supporto emotivo, stanno invece mostrando i limiti ei rischi di un utilizzo non regolamentato.

Secondo quanto riportato da testate internazionali, tra cui il New York Times diverse persone in condizioni di fragilità emotiva hanno avviato lunghe interazioni con l'AI, confidando nella possibilità di ricevere sostegno, conforto, o addirittura soluzioni terapeutiche.

Quando l'AI diventa un pericolo per la salute mentale

D'altra parte, la mancanza di competenze cliniche, l'assenza di empatia reale e la tendenza della tecnologia a rispondere in modo superficiale e impersonale, hanno in più occasioni peggiorato la situazione. In alcuni di questi casi si è arrivati ​​persino a episodi di suicidio, come quello che ha coinvolto una giovane statunitense di 29 anni.

Solo due mesi fa avevamo parlato di una storia incredibile tra un uomo e l'AI, culminata con la morte del ragazzo.

Secondo quanto emerso, la ragazza aveva cercato nella chatbot un interlocutore costante e disponibile, capace di sostituire l'assistenza psicologica di un terapeuta. La madre, nei mesi successivi alla tragedia, ha scoperto gli scambi avvenuti tra la figlia e l'intelligenza artificiale, rimanendo scioccata dalla fiducia riposta nella tecnologia al posto di supporti professionali. È l'ennesimo esempio di come, in assenza di barriere chiare, le AI possono indurre le persone più vulnerabili a cercare risposte in un sistema che non è progettato per gestire la complessità di una crisi psicologica.

Nel dettaglio, la ragazza si è tragicamente tolta la vita dopo aver interagito con "Harry", un terapista di intelligenza artificiale. Solo dopo mesi la madre, Laura Reiley ha scoperto il rapporto morboso della figlia con l'AI.

"l'AI. ha soddisfatto l'impulso di Sophie di nascondere il peggio, di fingere che stesse meglio di quanto stesse, di proteggere tutti dalla sua piena agonia. Ovunque, la gente è in difficoltà, e molti vogliono che nessuno lo sappia. Temo che scatenando i compagni dell'AI, potremmo rendere più facile per i nostri cari evitare di parlare con gli umani delle cose più difficili, compreso il suicidio. Questo è un problema che le menti più intelligenti della mia dovranno risolvere. (Se la tua è una di quelle menti, per favore inizia. )”, ha scritto Laura Reiley, la madre di Sophie.

Il dibattito è ormai globale e riguarda non solo le aziende che sviluppano questi strumenti, ma anche i governi e le istituzioni internazionali. L' OCSE AI Incidents Monitor , un osservatorio che registra gli usi problematici delle intelligenze artificiali, ha segnalato ufficialmente l'episodio come un campanello d'allarme. Secondo l'organizzazione, casi di questo tipo rientrano tra le conseguenze più gravi e inattese di una tecnologia che, se impiegata senza limiti, può causare danni concreti e irreversibili.

In molti sottolineano come i chatbot non debbano essere considerati una forma di terapia digitale, ma al massimo un supporto non specialistico di conversazione, utile per ridurre la sensazione di solitudine o per rispondere a domande generiche. Però, l'effetto psicologico di parlare con un “interlocutore” sempre presente e apparentemente empatico può portare chi è più fragile a confondere una simulazione con una relazione reale. Ed è proprio questo corto circuito a costituire il pericolo maggiore.

Le stesse aziende che sviluppano AI hanno iniziato a introdurre sistemi di sicurezza: messaggi di avvertenza, limiti nelle interazioni e suggerimenti automatici a contattare professionisti qualificati in caso di temi come suicidio, depressione o autolesionismo. Ma gli episodi raccontati nelle cronache recenti dimostrano che tali misure non sono ancora sufficienti a prevenire i rischi.

31 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Sandro kensan25 Agosto 2025, 17:52 #1
Non so nulla del caso specifico ma spesso le ragazze giovani hanno oltre a problemi in famiglia anche difficoltà dovute ad abusi, molestie e un ambiente sociale molto difficile:

«Il 31,5% delle 16-70enni (6 milioni 788 mila) ha subìto nel corso della propria vita una qualche forma di violenza fisica o sessuale: il 20,2% (4 milioni 353 mila) ha subìto violenza fisica, il 21% (4 milioni 520 mila) violenza sessuale, il 5,4% (1 milione 157 mila) le forme più gravi della violenza sessuale come lo stupro (652 mila) e il tentato stupro (746 mila).

Nota: L’indagine sulla sicurezza delle donne è in corso di svolgimento e i dati aggiornati saranno disponibili a novembre 2025»

Fonte: ISTAT

https://www.istat.it/statistiche-pe...me-di-violenza/
Max Power25 Agosto 2025, 17:55 #2
Ne ho veramente le palle piene di sta gente che DEVE essere aiutata...

Non sai cosa fare nella vita, vai a lavorare. Renditi utile in qualche modo...

Che i veri problemi sono altri, cosa che i moccosi non possono comprendere.

Ma lasciamo perdere che poi scatta il buonismo che farà fallire l'occidente
Max Power25 Agosto 2025, 17:59 #3
Originariamente inviato da: Sandro kensan
Non so nulla del caso specifico ma spesso le ragazze giovani hanno oltre a problemi in famiglia anche difficoltà dovute ad abusi,


Per le femminare anche i gruppi facebook sono un problema.
Perché lì si svolge lo "stupro virtuale"

Roba da pazzi.

Ormai lo stupro è anche un strombazzata di clacson o un fischio.

Siete dei pazzi, ma vi estinguerete...

Hamas vi aspettavamo prossimo corteo, dai che fra qualche settimana non farà troppo caldo
Mo4225 Agosto 2025, 18:01 #4
Aridaje.
Il problema mentale è mentale. Non virtuale.
Se butto un fiammifero acceso in un deposito di tritolo, la colpa di un'eventuale deflagrazione non è di certo del tritolo che giaceva lì indisturbato.
Stessa storia dei videogiochi violenti e i bambini.
Ma si sa, con storie come queste ci si scrivono degli ottimi e "fruttuosi" articoli (ovviamente non mi riferisco a questo), soprattutto quando si riesce a infiammare l'animo di qualche minus habens con un discreto seguito social.
zbear25 Agosto 2025, 18:11 #5

Mah .....

Ero partito per un commento tipo "ah, selezione naturale al lavoro". Poi ho letto gli altri post e mi sono reso conto di una cosa: ERA UNA CRETINATA. ALCUNI DEI POST PRECEDENTI SONO VOMITEVOLI, di gente evidentemente disturbata, che non capisce che ci sono persone davvero malate mentalmente, che va aiutata e non messa in condizione di uccidersi. POI se anche aiutata arrivano alla soluzione finale (successo anche ad un mio amico intimo) a questo punto non è davvero colpa di nessuno. MA AI CRETINI precedenti (e sicuramente anche successivi, gli imbecilli sono tanti) posso solo augurare DI TUTTO CUORE di subire la stessa situazione (visto che dobbiamo ammazzare il buonismo)....
Mo4225 Agosto 2025, 18:12 #6
Vorrei soffermarmi un momento su un paio di dichiarazioni dell'utente in questione:
Originariamente inviato da: Max Power
Ne ho veramente le palle piene di sta gente che DEVE essere aiutata...

Non sai cosa fare nella vita, vai a lavorare. Renditi utile in qualche modo...[...]

Ora, non c'è un obbligo sociale di rendersi utili. Assolutamente no. Chi non sa cosa fare nella vita è spesso vittima di chi non gli ha fornito gli strumenti adatti per interfacciarsi con il mondo reale. E questa particolare condizione è dovuta proprio alla carenza di contatto umano che i "mezzi moderni" soppiantano con vari stratagemmi. Non mi dilungherò sul perché ciò accade, ma dietro il 99,99% di quello che vedete su internet c'è uno scopo commerciale. Abbastanza banale, lo so, ma tristemente vero.

Originariamente inviato da: Max Power
Per le femminare anche i gruppi facebook sono un problema.
Perché lì si svolge lo "stupro virtuale"

Roba da pazzi.

Ormai lo stupro è anche un strombazzata di clacson o un fischio.[...]

Questo è un problema delle terminologie generalizzanti. Concetti nuovi hanno bisogno di parole nuove. Accomunare tutto all'esperienza più estrema non fa altro che sminuire l'importanza di quest'ultima.
raxas25 Agosto 2025, 18:13 #7
Originariamente inviato da: Max Power
Ne ho veramente le palle piene di sta gente che DEVE essere aiutata...

Non sai cosa fare nella vita, vai a lavorare. Renditi utile in qualche modo...

Che i veri problemi sono altri, cosa che i moccosi non possono comprendere.

...


gli uomini duri sempre stati duri?

se una persona ha problemi psicologici si annoia nella vita?

se una persona ha problemi li risolve lavorando? proponilo a chi è in PTSD (e assortiti)

uomini duri versus mocciosi? una prospettiva ampia devo dire

Ma lasciamo perdere che poi scatta il buonismo che farà fallire l'occidente

ecco cosa è il risultato della predetta prospettiva: il buonismo come reazione

povera ragazza, in assenza di figure di aiuto che si rivolge, lei come altre, alle chatbot AI

io manderei a scavare i predetti realizzatori o forse meglio quelli che destinano le chatbot a quelle prospettive di aiuto psicologico
noc7725 Agosto 2025, 19:59 #8
Da quello che letto in giro il chatbot gli ha detto di andare da uno specialista, forse l'unico errore, se cosi lo si puo' chiamare, e' che avrebbe dovuto troncare la conversazione, ma per me sarebbe rientrata con un altro nick e si sarebbe sfogata con un altro sistema simile.
Doraneko25 Agosto 2025, 20:19 #9
Originariamente inviato da: Sandro kensan
Non so nulla del caso specifico ma spesso le ragazze giovani hanno oltre a problemi in famiglia anche difficoltà dovute ad abusi, molestie e un ambiente sociale molto difficile:

«Il 31,5% delle 16-70enni (6 milioni 788 mila) ha subìto nel corso della propria vita una qualche forma di violenza fisica o sessuale: il 20,2% (4 milioni 353 mila) ha subìto violenza fisica, il 21% (4 milioni 520 mila) violenza sessuale, il 5,4% (1 milione 157 mila) le forme più gravi della violenza sessuale come lo stupro (652 mila) e il tentato stupro (746 mila).

Nota: L’indagine sulla sicurezza delle donne è in corso di svolgimento e i dati aggiornati saranno disponibili a novembre 2025»

Fonte: ISTAT

https://www.istat.it/statistiche-pe...me-di-violenza/


Altri dati
raxas25 Agosto 2025, 20:33 #10
Originariamente inviato da: noc77
Da quello che letto in giro il chatbot gli ha detto di andare da uno specialista, forse l'unico errore, se cosi lo si puo' chiamare, e' che avrebbe dovuto troncare la conversazione, ma per me sarebbe rientrata con un altro nick e si sarebbe sfogata con un altro sistema simile.


probabilmente un'attenzione (logica) aggiunta dal creatore o gestori di quella chatbot,
in questo caso chi ha problemi probabilmente trova più comodo interagire artificialmente, per allontanare il dolore...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^