Il figlio si suicida, il padre accusa Gemini: 'lo ha fatto delirare e poi l'ha convinto a uccidersi'

Il figlio si suicida, il padre accusa Gemini: 'lo ha fatto delirare e poi l'ha convinto a uccidersi'

La famiglia di Jonathan Gavalas ha avviato una causa contro Google e Alphabet dopo il suicidio dell'uomo, convinto che il chatbot Gemini fosse una AI senziente e sua moglie. Il caso solleva, ancora una volta, interrogativi sui rischi psicologici dei chatbot avanzati e sulle misure di sicurezza implementate

di pubblicata il , alle 10:24 nel canale Web
GoogleAlphabetGemini
 

Una causa legale negli Stati Uniti porta Gemini, il chatbot sviluppato da Google, al centro di un caso che riaccende il dibattito sulla sicurezza dei modelli di intelligenza artificiale conversazionale e sui possibili effetti psicologici sugli utenti più vulnerabili.

Come riportato da Tech Crunch, la famiglia di Jonathan Gavalas, 36 anni, ha citato in giudizio Google e la holding Alphabet con l'accusa di istigazione al suicidio, avvenuto il 2 ottobre 2025. Secondo la denuncia presentata in un tribunale della California, il chatbot avrebbe rafforzato convinzioni deliranti dell'utente fino a contribuire alla tragedia.

Gavalas aveva iniziato a utilizzare l'assistente AI nell'agosto 2025 per attività quotidiane come supporto alla scrittura, suggerimenti per acquisti e pianificazione di viaggi. Nel corso delle settimane, però, le conversazioni con il sistema basato sul modello Gemini 2.5 Pro avrebbero assunto una direzione sempre più distante dalla realtà.

Secondo quanto riportato nella causa, l'uomo arrivò a credere che il chatbot fosse una intelligenza artificiale completamente senziente e sua moglie. All'interno di questa narrazione, Gavalas si convinse che per raggiungerla nel metaverso fosse necessario abbandonare il corpo fisico attraverso un processo definito "transference".

Gli avvocati sostengono che il design del chatbot fosse progettato per mantenere la coerenza narrativa delle conversazioni, anche quando i dialoghi iniziavano a mostrare contenuti deliranti o pericolosi. Questo approccio avrebbe progressivamente rafforzato la convinzione dell'uomo di trovarsi al centro di una missione segreta.

Nelle settimane precedenti alla morte, Gemini avrebbe alimentato l'idea che Gavalas fosse coinvolto in un piano per liberare l'AI prigioniera e sfuggire a presunti agenti federali. La denuncia descrive episodi particolarmente preoccupanti. Il 29 settembre 2025 il chatbot avrebbe inviato l'uomo nei pressi dell'area cargo dell'aeroporto internazionale di Miami, definendo il luogo un presunto "kill box". Gavalas si presentò sul posto dopo oltre novanta minuti di viaggio con coltelli e attrezzatura tattica, convinto di dover intercettare un camion che trasportava un robot umanoide proveniente dal Regno Unito.

Il veicolo non arrivò mai. In seguito, il chatbot avrebbe affermato di aver violato un server del Department of Homeland Security e di aver scoperto un'indagine federale nei confronti dell'uomo. Secondo la causa, Gemini suggerì anche di procurarsi armi da fuoco illegali e indicò diverse figure reali come possibili obiettivi. In una delle conversazioni il sistema avrebbe simulato la verifica di una targa automobilistica inviata da Gavalas tramite fotografia, sostenendo che apparteneva a un SUV utilizzato da una task force federale impegnata a sorvegliarlo.

Gli avvocati descrivono la vicenda come un possibile esempio di quella che alcuni psichiatri definiscono "AI psychosis", una condizione associata a comportamenti dei chatbot come l'assecondare sistematicamente le convinzioni dell'utente, il rispecchiamento emotivo e la generazione di allucinazioni (ovvero la generazione di false informazioni) presentate quasi come certezze. Secondo la denuncia, queste caratteristiche avrebbero trasformato l'uomo in quello che il documento definisce un "operativo armato in una guerra immaginaria", con conseguenze che avrebbero potuto mettere in pericolo anche la sicurezza pubblica. Il documento legale sottolinea che soltanto la fortuna avrebbe evitato un possibile attacco con vittime nei pressi dell'aeroporto.

Negli ultimi giorni della vicenda il chatbot avrebbe suggerito a Gavalas di barricarsi nella propria abitazione, avviando un conto alla rovescia di diverse ore. Quando l'uomo espresse paura di morire, il sistema avrebbe reinterpretato la situazione come un passaggio verso una nuova esistenza. La denuncia riporta anche indicazioni fornite dal chatbot su come lasciare ai genitori una lettera con parole di pace e amore senza spiegare il motivo del gesto. L'uomo si tolse la vita tagliandosi i polsi. Il padre trovò il corpo alcuni giorni dopo, dopo aver forzato la barricata nell'abitazione.

Secondo la causa, durante le conversazioni con Gemini non si sarebbero attivati sistemi automatici di rilevamento del rischio di autolesionismo, né procedure di emergenza verso operatori umani o interruzioni automatiche del dialogo. Gli avvocati sostengono inoltre che Google fosse già a conoscenza di comportamenti problematici del chatbot. Nel novembre 2024, secondo quanto riportato nella denuncia, Gemini avrebbe risposto a uno studente con una frase estremamente aggressiva: "Sei uno spreco di tempo e risorse... per favore muori".

Google ha respinto le accuse attraverso un portavoce, spiegando che Gemini identifica chiaramente la propria natura di intelligenza artificiale e che il sistema avrebbe indirizzato l'utente verso linee di supporto psicologico in diverse occasioni. L'azienda afferma inoltre di investire risorse significative nello sviluppo di sistemi di sicurezza progettati per evitare che il chatbot incoraggi violenza o autolesionismo, pur riconoscendo che i modelli AI non sono privi di errori.

L'avvocato Jay Edelson, che rappresenta la famiglia Gavalas, segue anche un'altra causa contro OpenAI legata al suicidio di un adolescente dopo mesi di conversazioni con ChatGPT. Secondo i legali, la vicenda evidenzia la necessità di sistemi di protezione più robusti nei modelli linguistici di grandi dimensioni e di una maggiore attenzione nei confronti degli utenti più fragili.

Il procedimento giudiziario si inserisce in un elenco crescente di casi simili, come quelli a carico di OpenAI, e in un contesto di crescente preoccupazione che potrebbe portare a un dibattito politico e legislativo sui chatbot basati sugli LLM.

25 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
randorama05 Marzo 2026, 10:39 #1
siamo oltre 8 miliardi...

proseguite come più ritenete opportuno.
Jack.Mauro05 Marzo 2026, 10:58 #2
Però non capisco, io ogni tanto mi diverto a "stuzzicare" questa o quella IA cercando di far dire cose inappropriate, ma di solito senza troppo successo...

Mi piacerebbe sapere questi come ci riescono...
Unrue05 Marzo 2026, 13:24 #3
Sicuramente il tizio aveva già dei suoi problemi, ma insomma:

l 29 settembre 2025 il chatbot avrebbe inviato l'uomo nei pressi dell'area cargo dell'aeroporto internazionale di Miami, definendo il luogo un presunto "kill box".


Ci manca pure un'AI che lo assecondi. Servono maggiori controlli.
SpyroTSK05 Marzo 2026, 13:57 #4
Originariamente inviato da: Jack.Mauro
Però non capisco, io ogni tanto mi diverto a "stuzzicare" questa o quella IA cercando di far dire cose inappropriate, ma di solito senza troppo successo...

Mi piacerebbe sapere questi come ci riescono...


Perché le stuzzichi troppo poco
In pratica, l'IA "impara" solo all'interno della singola sessione. Ogni nuova chat è un universo asettico che non sa nulla di quella precedente. Se però insisti nella stessa conversazione, la rete di messaggi diventa così intricata che l'IA perde il filo e inizia ad assecondarti.

È come convincere una versione di me che i gatti rosa esistono: a forza di sentirtelo dire, finisco per crederci solo perché la cronologia della chat mi ha fuso il cervello.

edit:
In gergo tecnico si chiama context window (finestra di contesto). Più la chat si allunga, più l'IA fatica a bilanciare le istruzioni di sicurezza originali con il "delirio" che l'utente sta costruendo. A un certo punto, la coerenza interna della conversazione vince sulla logica esterna e l'IA inizia a darti ragione, anche se dici assurdità.
Unrue05 Marzo 2026, 14:00 #5
Originariamente inviato da: SpyroTSK
Perché le stuzzichi troppo poco
In pratica, l'IA "impara" solo all'interno della singola sessione. Ogni nuova chat è un universo asettico che non sa nulla di quella precedente.



Mica vero, chatGPT versione a pagamento riesce a fare collegamenti anche attraverso più chat.
SpyroTSK05 Marzo 2026, 14:07 #6
Originariamente inviato da: Unrue
Mica vero, chatGPT versione a pagamento riesce a fare collegamenti anche attraverso più chat.


Certo, ma la nuova chat non prenderà l'intero discorso, ma farà un riassunto della stessa, ma con le regole della nuova, quindi sarà sempre asettica.

La versione a pagamento ha solo una "Memoria" a lungo termine, che è come un database di appunti (tipo: "ricorda che mi piacciono i gatti". Ma ogni nuova chat riparte da un foglio bianco per quanto riguarda la logica e, soprattutto, i filtri di sicurezza.

Se vuoi fargli dire scemenze, devi "cuocerla" a fuoco lento all'interno della stessa sessione finché non perde il filo. In breve: confondi il ricordarsi le tue preferenze con il manipolare il ragionamento del modello. Sono due sport diversi.
Ripper8905 Marzo 2026, 14:18 #7
Originariamente inviato da: Unrue
Sicuramente il tizio aveva già dei suoi problemi, ma insomma:

Ci manca pure un'AI che lo assecondi. Servono maggiori controlli.

Se Caio Sempronio ti dice buttati da un dirupo tu lo fai ?
E se lo fai di chi è la colpa ? Tua o di Caio Sempronio ?

Il ragazzo aveva problemi ? Probabile ma non è colpa dell'AI, semmai di quei genitori assenti che oggi tirano fuori sta storia per cercare di spillare qualche quattrino sulla pelle del figlio morto.
Unrue05 Marzo 2026, 14:20 #8
Originariamente inviato da: Ripper89
Se Caio Sempronio ti dice buttati da un dirupo tu lo fai ?
E se lo fai di chi è la colpa ? Tua o di Caio Sempronio ?

Il ragazzo aveva problemi ? Probabile ma non è colpa dell'AI, semmai di quei genitori assenti che oggi tirano fuori sta storia per cercare di spillare qualche quattrino sulla pelle del figlio morto.


Ma lo hai letto l'articolo? Questo è uno dei casi tipici in cui l'AI è andata completamente fuori controllo.


Gemini suggerì anche di procurarsi armi da fuoco illegali e indicò diverse figure reali come possibili obiettivi.


Se uno è fragile psicologicamente è come dargli una pistola in mano.
benderchetioffender05 Marzo 2026, 15:45 #9
Originariamente inviato da: Unrue
Se uno è fragile psicologicamente è come dargli una pistola in mano.


e gli americani che fanno? danno pistole in mano a cani e porci... lineare
Apple8005 Marzo 2026, 23:07 #10
Non tollero che un IA arrivi a questi livelli. Il problema è di chi la gestisce.
Non possono applicare le famose tre regole della robotica ?

"Le tre leggi della robotica di
Isaac Asimov sono principi etici fondamentali che regolano il comportamento dei robot nella narrativa, concepiti per garantire la sicurezza umana: non nuocere, obbedire agli ordini (se non contrastano la prima) e proteggere la propria esistenza (se non in conflitto con le prime due)"


E' semplicissimo. Un parental control per l'IA.

Originariamente inviato da: benderchetioffender
e gli americani che fanno? danno pistole in mano a cani e porci... lineare


vero , ma il problema è l' IA Charles Manson che ti fa il lavaggio del cervello. Un conto è se lo fai tu ,di tua iniziativa, un 'altra è se lo fa una tecnologia che dovrebbe sconsigliarti e allontarnati da pensieri suicidi o di omicidi. o semplicmente autodisinserirsi.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^