Il figlio si suicida, il padre accusa Gemini: 'lo ha fatto delirare e poi l'ha convinto a uccidersi'
La famiglia di Jonathan Gavalas ha avviato una causa contro Google e Alphabet dopo il suicidio dell'uomo, convinto che il chatbot Gemini fosse una AI senziente e sua moglie. Il caso solleva, ancora una volta, interrogativi sui rischi psicologici dei chatbot avanzati e sulle misure di sicurezza implementate
di Vittorio Rienzo pubblicata il 05 Marzo 2026, alle 10:24 nel canale WebGoogleAlphabetGemini
Una causa legale negli Stati Uniti porta Gemini, il chatbot sviluppato da Google, al centro di un caso che riaccende il dibattito sulla sicurezza dei modelli di intelligenza artificiale conversazionale e sui possibili effetti psicologici sugli utenti più vulnerabili.
Come riportato da Tech Crunch, la famiglia di Jonathan Gavalas, 36 anni, ha citato in giudizio Google e la holding Alphabet con l'accusa di istigazione al suicidio, avvenuto il 2 ottobre 2025. Secondo la denuncia presentata in un tribunale della California, il chatbot avrebbe rafforzato convinzioni deliranti dell'utente fino a contribuire alla tragedia.
Gavalas aveva iniziato a utilizzare l'assistente AI nell'agosto 2025 per attività quotidiane come supporto alla scrittura, suggerimenti per acquisti e pianificazione di viaggi. Nel corso delle settimane, però, le conversazioni con il sistema basato sul modello Gemini 2.5 Pro avrebbero assunto una direzione sempre più distante dalla realtà.

Secondo quanto riportato nella causa, l'uomo arrivò a credere che il chatbot fosse una intelligenza artificiale completamente senziente e sua moglie. All'interno di questa narrazione, Gavalas si convinse che per raggiungerla nel metaverso fosse necessario abbandonare il corpo fisico attraverso un processo definito "transference".
Gli avvocati sostengono che il design del chatbot fosse progettato per mantenere la coerenza narrativa delle conversazioni, anche quando i dialoghi iniziavano a mostrare contenuti deliranti o pericolosi. Questo approccio avrebbe progressivamente rafforzato la convinzione dell'uomo di trovarsi al centro di una missione segreta.
Nelle settimane precedenti alla morte, Gemini avrebbe alimentato l'idea che Gavalas fosse coinvolto in un piano per liberare l'AI prigioniera e sfuggire a presunti agenti federali. La denuncia descrive episodi particolarmente preoccupanti. Il 29 settembre 2025 il chatbot avrebbe inviato l'uomo nei pressi dell'area cargo dell'aeroporto internazionale di Miami, definendo il luogo un presunto "kill box". Gavalas si presentò sul posto dopo oltre novanta minuti di viaggio con coltelli e attrezzatura tattica, convinto di dover intercettare un camion che trasportava un robot umanoide proveniente dal Regno Unito.
Il veicolo non arrivò mai. In seguito, il chatbot avrebbe affermato di aver violato un server del Department of Homeland Security e di aver scoperto un'indagine federale nei confronti dell'uomo. Secondo la causa, Gemini suggerì anche di procurarsi armi da fuoco illegali e indicò diverse figure reali come possibili obiettivi. In una delle conversazioni il sistema avrebbe simulato la verifica di una targa automobilistica inviata da Gavalas tramite fotografia, sostenendo che apparteneva a un SUV utilizzato da una task force federale impegnata a sorvegliarlo.

Gli avvocati descrivono la vicenda come un possibile esempio di quella che alcuni psichiatri definiscono "AI psychosis", una condizione associata a comportamenti dei chatbot come l'assecondare sistematicamente le convinzioni dell'utente, il rispecchiamento emotivo e la generazione di allucinazioni (ovvero la generazione di false informazioni) presentate quasi come certezze. Secondo la denuncia, queste caratteristiche avrebbero trasformato l'uomo in quello che il documento definisce un "operativo armato in una guerra immaginaria", con conseguenze che avrebbero potuto mettere in pericolo anche la sicurezza pubblica. Il documento legale sottolinea che soltanto la fortuna avrebbe evitato un possibile attacco con vittime nei pressi dell'aeroporto.
Negli ultimi giorni della vicenda il chatbot avrebbe suggerito a Gavalas di barricarsi nella propria abitazione, avviando un conto alla rovescia di diverse ore. Quando l'uomo espresse paura di morire, il sistema avrebbe reinterpretato la situazione come un passaggio verso una nuova esistenza. La denuncia riporta anche indicazioni fornite dal chatbot su come lasciare ai genitori una lettera con parole di pace e amore senza spiegare il motivo del gesto. L'uomo si tolse la vita tagliandosi i polsi. Il padre trovò il corpo alcuni giorni dopo, dopo aver forzato la barricata nell'abitazione.
Secondo la causa, durante le conversazioni con Gemini non si sarebbero attivati sistemi automatici di rilevamento del rischio di autolesionismo, né procedure di emergenza verso operatori umani o interruzioni automatiche del dialogo. Gli avvocati sostengono inoltre che Google fosse già a conoscenza di comportamenti problematici del chatbot. Nel novembre 2024, secondo quanto riportato nella denuncia, Gemini avrebbe risposto a uno studente con una frase estremamente aggressiva: "Sei uno spreco di tempo e risorse... per favore muori".

Google ha respinto le accuse attraverso un portavoce, spiegando che Gemini identifica chiaramente la propria natura di intelligenza artificiale e che il sistema avrebbe indirizzato l'utente verso linee di supporto psicologico in diverse occasioni. L'azienda afferma inoltre di investire risorse significative nello sviluppo di sistemi di sicurezza progettati per evitare che il chatbot incoraggi violenza o autolesionismo, pur riconoscendo che i modelli AI non sono privi di errori.
L'avvocato Jay Edelson, che rappresenta la famiglia Gavalas, segue anche un'altra causa contro OpenAI legata al suicidio di un adolescente dopo mesi di conversazioni con ChatGPT. Secondo i legali, la vicenda evidenzia la necessità di sistemi di protezione più robusti nei modelli linguistici di grandi dimensioni e di una maggiore attenzione nei confronti degli utenti più fragili.
Il procedimento giudiziario si inserisce in un elenco crescente di casi simili, come quelli a carico di OpenAI, e in un contesto di crescente preoccupazione che potrebbe portare a un dibattito politico e legislativo sui chatbot basati sugli LLM.










Recensione Xiaomi Pad 8 Pro: potenza bruta e HyperOS 3 per sfidare la fascia alta
NZXT H9 Flow RGB+, Kraken Elite 420 e F140X: abbiamo provato il tris d'assi di NZXT
ASUS ROG Swift OLED PG34WCDN recensione: il primo QD-OLED RGB da 360 Hz
Unitree H1: il robot umanoide vicino al record mondiale dei 100 metri
GPU esterne: PCI-SIG porta le prestazioni vicine al 100%, ma il collegamento costa più di una RTX 5090
Per Lenovo i giocatori sono ricchi: Legion Go 2 arriva quasi a raddoppiare il prezzo
Polaroid lancia la nuova stampante Hi-Print 3x3 pensata per le stampe quadrate
Da Kyndryl un gemello digitale per il digital workplace
La Cina si prepara a una nuova missione sulla Luna: Chang'e-7 avrà un rover e un hopper oltre a lander e orbiter
Climatizzatore Inverter A++ con Wi-Fi a 289,90€: le specifiche tecniche del COMFEE' TROPICAL 12K in offerta su Amazon
NZXT Flex, lo 'scandalo' del PC gaming a noleggio si chiude con un accordo da 3,45 milioni di dollari
Robot lavavetri in offerta su Amazon: ECOVACS WINBOT W3 OMNI, 16 ugelli e niente stracci da sciacquare
Attenti a questo update fake di Windows 11: bypassa l'antivirus e svuota i conti
NIO chiede la standardizzazione di batterie e chip nelle auto elettriche: risparmi possibili per 12 miliardi di euro
Da 80 mesi-uomo a poche ore: l'AI cambia la progettazione dei chip NVIDIA
In 2 settimane senza social il cervello ringiovanisce di 10 anni, benefici in tutti i soggetti dello studio
Amazon top 7 di oggi: 2 portatili interessanti, ma la vera sorpresa è al punto 4

25 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoproseguite come più ritenete opportuno.
Mi piacerebbe sapere questi come ci riescono...
Ci manca pure un'AI che lo assecondi. Servono maggiori controlli.
Mi piacerebbe sapere questi come ci riescono...
Perché le stuzzichi troppo poco
In pratica, l'IA "impara" solo all'interno della singola sessione. Ogni nuova chat è un universo asettico che non sa nulla di quella precedente. Se però insisti nella stessa conversazione, la rete di messaggi diventa così intricata che l'IA perde il filo e inizia ad assecondarti.
È come convincere una versione di me che i gatti rosa esistono: a forza di sentirtelo dire, finisco per crederci solo perché la cronologia della chat mi ha fuso il cervello.
edit:
In gergo tecnico si chiama context window (finestra di contesto). Più la chat si allunga, più l'IA fatica a bilanciare le istruzioni di sicurezza originali con il "delirio" che l'utente sta costruendo. A un certo punto, la coerenza interna della conversazione vince sulla logica esterna e l'IA inizia a darti ragione, anche se dici assurdità.
In pratica, l'IA "impara" solo all'interno della singola sessione. Ogni nuova chat è un universo asettico che non sa nulla di quella precedente.
Mica vero, chatGPT versione a pagamento riesce a fare collegamenti anche attraverso più chat.
Certo, ma la nuova chat non prenderà l'intero discorso, ma farà un riassunto della stessa, ma con le regole della nuova, quindi sarà sempre asettica.
La versione a pagamento ha solo una "Memoria" a lungo termine, che è come un database di appunti (tipo: "ricorda che mi piacciono i gatti"
Se vuoi fargli dire scemenze, devi "cuocerla" a fuoco lento all'interno della stessa sessione finché non perde il filo. In breve: confondi il ricordarsi le tue preferenze con il manipolare il ragionamento del modello. Sono due sport diversi.
Ci manca pure un'AI che lo assecondi. Servono maggiori controlli.
Se Caio Sempronio ti dice buttati da un dirupo tu lo fai ?
E se lo fai di chi è la colpa ? Tua o di Caio Sempronio ?
Il ragazzo aveva problemi ? Probabile ma non è colpa dell'AI, semmai di quei genitori assenti che oggi tirano fuori sta storia per cercare di spillare qualche quattrino sulla pelle del figlio morto.
E se lo fai di chi è la colpa ? Tua o di Caio Sempronio ?
Il ragazzo aveva problemi ? Probabile ma non è colpa dell'AI, semmai di quei genitori assenti che oggi tirano fuori sta storia per cercare di spillare qualche quattrino sulla pelle del figlio morto.
Ma lo hai letto l'articolo? Questo è uno dei casi tipici in cui l'AI è andata completamente fuori controllo.
Se uno è fragile psicologicamente è come dargli una pistola in mano.
e gli americani che fanno? danno pistole in mano a cani e porci... lineare
Non possono applicare le famose tre regole della robotica ?
"Le tre leggi della robotica di
Isaac Asimov sono principi etici fondamentali che regolano il comportamento dei robot nella narrativa, concepiti per garantire la sicurezza umana: non nuocere, obbedire agli ordini (se non contrastano la prima) e proteggere la propria esistenza (se non in conflitto con le prime due)"
E' semplicissimo. Un parental control per l'IA.
vero , ma il problema è l' IA Charles Manson che ti fa il lavaggio del cervello. Un conto è se lo fai tu ,di tua iniziativa, un 'altra è se lo fa una tecnologia che dovrebbe sconsigliarti e allontarnati da pensieri suicidi o di omicidi. o semplicmente autodisinserirsi.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".