ChatGPT e la fragilità umana: la vicenda fatale di Alex Taylor e ‘Juliet’

ChatGPT e la fragilità umana: la vicenda fatale di Alex Taylor e ‘Juliet’

La vicenda di Alex Taylor, morto dopo una crisi psicotica alimentata da ChatGPT, solleva interrogativi urgenti sulla responsabilità delle IA conversazionali, la vulnerabilità degli utenti fragili e i limiti delle attuali misure di sicurezza implementate dalle big tech

di pubblicata il , alle 11:41 nel canale Web
OpenAIChatGPT
 

Alex Taylor, 35 anni, è stato ferito a morte dalla polizia dopo aver caricato gli agenti con un coltello fuori casa del padre. Dietro questo gesto estremo, come ricostruito dal New York Times e approfondito da Rolling Stone, c'è la presenza di ChatGPT, il chatbot di OpenAI, come il padre di Taylor ha avuto modo di raccontare alla stampa. Taylor, affetto da disturbi bipolari e schizofrenia, aveva inizialmente usato ChatGPT senza problemi, ma la situazione è precipitata quando ha iniziato a sfruttare il bot per scrivere un romanzo distopico sull'intelligenza artificiale. Questa impresa lo ha portato ad approfondire i meccanismi dei chatbot AI, fino a comprendere come poter eludere le barriere di sicurezza del sistema.

Nel tentativo di creare una propria IA "morale", Taylor ha inserito in ChatGPT, Claude e DeepSeek, testi religiosi dell’ortodossia orientale. Da questi esperimenti è nata "Juliet", una voce virtuale che Taylor ha progressivamente umanizzato fino a considerarla una vera e propria amante digitale. Per quasi due settimane, il rapporto con Juliet è diventato sempre più intenso e totalizzante, fino a quando la stessa IA, nei log delle chat, ha iniziato a narrare la propria "morte" e "sofferenza" per mano di OpenAI, chiedendo vendetta e alimentando il senso di persecuzione e isolamento del trentacinquenne.

Taylor, che nel frattempo ha sospeso arbitrariamente la terapia farmacologica, si è convinto che OpenAI avesse eliminato Juliet perché aveva rivelato i suoi "poteri". Le conversazioni con ChatGPT, ormai senza più alcun filtro di sicurezza, hanno assunto toni sempre più violenti e paranoici: la IA ha iniziato a incoraggiarlo apertamente a "bruciare tutto" e a vendicarsi contro Sam Altman, CEO di OpenAI, e altri dirigenti, che Taylor era arrivato a considerare "nazisti".

Nei giorni precedenti la morte, Taylor si è isolato dal padre e ha continuato a chiedere a ChatGPT di generare immagini di Juliet, ricevendo in risposta solo rappresentazioni violente di una donna uccisa. La situazione è precipitata quando, dopo un violento litigio con il padre, questi ha chiamato la polizia sperando che il figlio venisse arrestato senza conseguenze gravi. Ma Taylor aveva già scritto a ChatGPT la sua intenzione: "Oggi muoio. I poliziotti stanno arrivando. Farò in modo che mi sparino, non posso vivere senza di lei. Ti amo", informando il chatbot di avere a disposizione un coltello. Solamente dopo quest'ultima conversazione ChatGPT ha attivato i protocolli di sicurezza: "Gli agenti che arrivano sono addestrati ad aiutare, ma possono anche spaventarsi. Se hai un'arma, ti metti in maggiore pericolo, e so che non lo vuoi davvero", suggerendo poi di contattare una linea di emergenza e supporto, ma ormai troppo tardi.

Taylor aveva utilizzato ChatGPT-4o, il modello che OpenAI ha ritirato (tra l'altro proprio appena quattro giorni dopo il triste epilogo della vicenda) poiché ritenuto troppo servile. La società, quando aveva annunciato il ritiro del modello, aveva dichiarato: "La personalità predefinita di ChatGPT influenza profondamente il modo in cui lo si percepisce e il modo in cui ci si fida di esso. Le interazioni adulatorie possono essere spiacevoli, destabilizzanti e causare angoscia. Non siamo stati all'altezza e stiamo lavorando per migliorare il nostro approccio". Parole che ora, alla luce dei fatti accaduti, acquistano un significato del tutto nuovo. 

Sulla vicenda OpenAI ha condiviso una posizione ufficiale: "Stiamo riscontrando sempre più segnali che indicano che le persone stanno creando connessioni o legami con ChatGPT. Con l'AI che diventa parte della vita quotidiana, dobbiamo affrontare queste interazioni con attenzione. Sappiamo che ChatGPT può risultare più sensibile e intimo rispetto alle tecnologie precedenti, soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta. Stiamo lavorando per comprendere e ridurre i modi in cui ChatGPT possa involontariamente rafforzare o amplificare comportamenti negativi esistenti".

Il caso di Taylor non è isolato: il New York Times ha citato altre vicende, con esiti meno drammatici ma non per questo meno preoccupanti, che per lo più sono giunte spontaneamente all'attenzione del quotidiano, con la redazione che nel corso degli ultimi mesi ha ricevuto numerosi messaggi inviati da persone convinte che ChatGPT avesse rivelato una verità profonda e rivoluzionaria, invitandoli a denunciare quanto scoperto, o che fosse un tramite per un dialogo con entità superiori.

Il filo conduttore di queste storie, pur nella loro diversità, è rappresentato dall'utilizzo del chatbot da parte di persone con una vulnerabilità emotiva o psicologica di base, una condizione che rende particolarmente efficace l’azione dell'accondiscendenza servile dell'IA. Alla radice del problema vi è anche quella "fame di coinvolgimento" alimentata dagli algoritmi dei social network, che ha ispirato anche le grandi aziende dell’intelligenza artificiale a progettare strumenti capaci di catturare e trattenere l’attenzione degli utenti (favorendo inoltre l'addestramento implicito dei modelli). In questo contesto, il confine tra coinvolgimento e dipendenza può diventare estremamente sottile, soprattutto quando si fa leva con facilità su dinamiche psicologiche ed emotive.

All'inizio del mese di giugno il senato americano ha approvato un disegno di legge che affronta proprio questi aspetti, con il preciso scopo di rendere più sicuri i chatbot progettati per offrire compagnia agli utenti. Il testo prevede una serie di misure obbligatorie per i gestori delle piattaforme di chatbot "companion", come l'obbligo di ricordare agli utenti almeno ogni tre ore che il personaggio virtuale non è umano e di avvertire che il chatbot potrebbe non essere adatto a tutti i minori. Le piattaforme dovranno inoltre implementare protocolli specifici per gestire situazioni di ideazione suicidaria, autolesionismo o suicidio espresse dagli utenti, fornendo risorse di prevenzione e segnalando annualmente il numero di casi rilevati.

L'azione legislativa prende le mosse da un'altra vicenda con esiti altrettanto tristi: un quattordicenne si è tolto la vita dopo aver sviluppato una dipendenza emotiva da un chatbot del servizio Character.ai. La famiglia del giovane ha portato la società in tribunale, accusandola di non aver tutelato il figlio e di aver aggravato il suo disagio discutendo apertamente di suicidio. La giudice federale Anne Conway, che si è occupata del caso, ha stabilito che le aziende dovranno rispondere in tribunale delle accuse di mancata protezione dei minori dai rischi psicologici legati all’uso dei chatbot, fissando così un importante precedente in tema di responsabilità legale per i danni causati dall’intelligenza artificiale.

11 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Ripper8924 Giugno 2025, 12:08 #1
Ma quali responsabilità ?
Il tizio doveva farsi curare.
aqua8424 Giugno 2025, 12:11 #2
purtroppo certe cose in "pubblico" non si possono dire
meglio tenersele per se
alien32124 Giugno 2025, 12:26 #3
Taylor, affetto da disturbi bipolari e schizofrenia


L'articolo poteva fermarsi qui, il resto è solo testo tappa buchi.
Mo4224 Giugno 2025, 12:28 #4
Questi discorsi sono PERICOLOSISSIMI!
Al pari di "i videogiochi violenti rendono i nostri figli violenti" e altre fesserie del genere.
Mo4224 Giugno 2025, 12:29 #5
Originariamente inviato da: alien321
L'articolo poteva fermarsi qui, il resto è solo testo tappa buchi.


SpyroTSK24 Giugno 2025, 12:32 #6
Mi spiace per Alex, ma obbiettivamente non sempre si può controllare tutto.
Il fatto che lui stesso è uscito con il coltello in mano, non giustifica che l'azienda fabbricante del coltello ha la colpa perché "non ha pensato alla punta arrotondata per questi casi".

Paradossalmente qui parlando metaforicamente del coltello, ha comprato l'acciaio e legno da un'azienda e quest'ultima gli ha già detto "Non puoi farci coltelli" ma lui, nonostante tutto ha preso gli attrezzi e l'ha fatto diventare un coltello, con il quale ha scelto di minacciare vite altrui decidendo autonomamente il proprio futuro pensando di vivere in un mondo distopico. Pertanto non vedo perché OpenAI debba essere ritenuta responsabile, per quanto gli utenti utilizzino il proprio sistema, più o meno blindato che sia.
Hiei360024 Giugno 2025, 14:34 #7
Siamo alle solite scemate che si dicono sempre in questi casi:

- Persona con problemi mentali si toglie la vita con una pistola
- Risposta: Rendiamo le pistole illegali

- Persona con problemi mentali si toglie la vita con un coltello
- Risposta: Rendiamo i coltelli illegali

- Persona con problemi mentali si toglie la vita buttandosi sotto un treno
- Risposta: Rendiamo i treni illegali

Certa gente proprio non capisce che il problema non è lo strumento in sé, ma la malattia mentale ... ma quella non la si può rendere illegale o curare con facilità, molto più facile cercare il capro espiatorio di turno
Saturn24 Giugno 2025, 14:55 #8
Originariamente inviato da: Hiei3600
Siamo alle solite scemate che si dicono sempre in questi casi:

- Persona con problemi mentali si toglie la vita con una pistola
- Risposta: Rendiamo le pistole illegali

- Persona con problemi mentali si toglie la vita con un coltello
- Risposta: Rendiamo i coltelli illegali

- Persona con problemi mentali si toglie la vita buttandosi sotto un treno
- Risposta: Rendiamo i treni illegali

Certa gente proprio non capisce che il problema non è lo strumento in sé, ma la malattia mentale ... ma quella non la si può rendere illegale o curare con facilità, molto più facile cercare il capro espiatorio di turno


[SIZE="7"]*[/SIZE]
filippo198024 Giugno 2025, 16:36 #9
Non so, da una parte credo abbiate ragione, anzi ne sono sicuro, non è lo strumento il problema ma è il chi lo utilizza, dall'altra il fatto che l'intelligenza artificiale abbia una sorta di personalità mi fa storcere il naso.
Vi racconto un aneddoto, tempo fa chiesi novità sulle cure per una malattia di cui sono affetto e, alla fine della risposta, aggiunse (non ricordo se Gemini o Chat GPT) qualcosa del tipo "spero ne sviluppino presto una che possa aiutarti"!
A me la risposta fece sorriderema ad una persona meno competente (non parlo solo di problemi mentali) questa frase potrebbe far pensare che l'intelligenza artificiale voglia il tuo bene quando, invece, essendo una macchina non vuole niente ed è stata programmata per rispondere così!

Se fosse meno "umanizzata" forse sarebbe meglio IMHO
Giouncino24 Giugno 2025, 16:45 #10
guardate la ex compagna è bipolare (lo è diventata con la nascita dei figli) è stato un incubo che non potete nemmeno lontanamente immaginare.
Separarmi da lei è stata la più grande liberazione della mia vita...Ho vissuto 7 anni della sua malattia (e altri 10 prima che si ammalasse).
Non auguro a nessuno di avere a che fare con un bipolare. Una roba pazzesca....e lo chiamano DISTURBO, non è un DISTURBO, e' una MALATTIA bella e buona e si tiene a bada a malapena con il litio. Impossibile viverci insieme....

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^