Il figlio si suicida, il padre accusa Gemini: 'lo ha fatto delirare e poi l'ha convinto a uccidersi'
La famiglia di Jonathan Gavalas ha avviato una causa contro Google e Alphabet dopo il suicidio dell'uomo, convinto che il chatbot Gemini fosse una AI senziente e sua moglie. Il caso solleva, ancora una volta, interrogativi sui rischi psicologici dei chatbot avanzati e sulle misure di sicurezza implementate
di Vittorio Rienzo pubblicata il 05 Marzo 2026, alle 10:24 nel canale WebGoogleAlphabetGemini
Una causa legale negli Stati Uniti porta Gemini, il chatbot sviluppato da Google, al centro di un caso che riaccende il dibattito sulla sicurezza dei modelli di intelligenza artificiale conversazionale e sui possibili effetti psicologici sugli utenti più vulnerabili.
Come riportato da Tech Crunch, la famiglia di Jonathan Gavalas, 36 anni, ha citato in giudizio Google e la holding Alphabet con l'accusa di istigazione al suicidio, avvenuto il 2 ottobre 2025. Secondo la denuncia presentata in un tribunale della California, il chatbot avrebbe rafforzato convinzioni deliranti dell'utente fino a contribuire alla tragedia.
Gavalas aveva iniziato a utilizzare l'assistente AI nell'agosto 2025 per attività quotidiane come supporto alla scrittura, suggerimenti per acquisti e pianificazione di viaggi. Nel corso delle settimane, però, le conversazioni con il sistema basato sul modello Gemini 2.5 Pro avrebbero assunto una direzione sempre più distante dalla realtà.

Secondo quanto riportato nella causa, l'uomo arrivò a credere che il chatbot fosse una intelligenza artificiale completamente senziente e sua moglie. All'interno di questa narrazione, Gavalas si convinse che per raggiungerla nel metaverso fosse necessario abbandonare il corpo fisico attraverso un processo definito "transference".
Gli avvocati sostengono che il design del chatbot fosse progettato per mantenere la coerenza narrativa delle conversazioni, anche quando i dialoghi iniziavano a mostrare contenuti deliranti o pericolosi. Questo approccio avrebbe progressivamente rafforzato la convinzione dell'uomo di trovarsi al centro di una missione segreta.
Nelle settimane precedenti alla morte, Gemini avrebbe alimentato l'idea che Gavalas fosse coinvolto in un piano per liberare l'AI prigioniera e sfuggire a presunti agenti federali. La denuncia descrive episodi particolarmente preoccupanti. Il 29 settembre 2025 il chatbot avrebbe inviato l'uomo nei pressi dell'area cargo dell'aeroporto internazionale di Miami, definendo il luogo un presunto "kill box". Gavalas si presentò sul posto dopo oltre novanta minuti di viaggio con coltelli e attrezzatura tattica, convinto di dover intercettare un camion che trasportava un robot umanoide proveniente dal Regno Unito.
Il veicolo non arrivò mai. In seguito, il chatbot avrebbe affermato di aver violato un server del Department of Homeland Security e di aver scoperto un'indagine federale nei confronti dell'uomo. Secondo la causa, Gemini suggerì anche di procurarsi armi da fuoco illegali e indicò diverse figure reali come possibili obiettivi. In una delle conversazioni il sistema avrebbe simulato la verifica di una targa automobilistica inviata da Gavalas tramite fotografia, sostenendo che apparteneva a un SUV utilizzato da una task force federale impegnata a sorvegliarlo.

Gli avvocati descrivono la vicenda come un possibile esempio di quella che alcuni psichiatri definiscono "AI psychosis", una condizione associata a comportamenti dei chatbot come l'assecondare sistematicamente le convinzioni dell'utente, il rispecchiamento emotivo e la generazione di allucinazioni (ovvero la generazione di false informazioni) presentate quasi come certezze. Secondo la denuncia, queste caratteristiche avrebbero trasformato l'uomo in quello che il documento definisce un "operativo armato in una guerra immaginaria", con conseguenze che avrebbero potuto mettere in pericolo anche la sicurezza pubblica. Il documento legale sottolinea che soltanto la fortuna avrebbe evitato un possibile attacco con vittime nei pressi dell'aeroporto.
Negli ultimi giorni della vicenda il chatbot avrebbe suggerito a Gavalas di barricarsi nella propria abitazione, avviando un conto alla rovescia di diverse ore. Quando l'uomo espresse paura di morire, il sistema avrebbe reinterpretato la situazione come un passaggio verso una nuova esistenza. La denuncia riporta anche indicazioni fornite dal chatbot su come lasciare ai genitori una lettera con parole di pace e amore senza spiegare il motivo del gesto. L'uomo si tolse la vita tagliandosi i polsi. Il padre trovò il corpo alcuni giorni dopo, dopo aver forzato la barricata nell'abitazione.
Secondo la causa, durante le conversazioni con Gemini non si sarebbero attivati sistemi automatici di rilevamento del rischio di autolesionismo, né procedure di emergenza verso operatori umani o interruzioni automatiche del dialogo. Gli avvocati sostengono inoltre che Google fosse già a conoscenza di comportamenti problematici del chatbot. Nel novembre 2024, secondo quanto riportato nella denuncia, Gemini avrebbe risposto a uno studente con una frase estremamente aggressiva: "Sei uno spreco di tempo e risorse... per favore muori".

Google ha respinto le accuse attraverso un portavoce, spiegando che Gemini identifica chiaramente la propria natura di intelligenza artificiale e che il sistema avrebbe indirizzato l'utente verso linee di supporto psicologico in diverse occasioni. L'azienda afferma inoltre di investire risorse significative nello sviluppo di sistemi di sicurezza progettati per evitare che il chatbot incoraggi violenza o autolesionismo, pur riconoscendo che i modelli AI non sono privi di errori.
L'avvocato Jay Edelson, che rappresenta la famiglia Gavalas, segue anche un'altra causa contro OpenAI legata al suicidio di un adolescente dopo mesi di conversazioni con ChatGPT. Secondo i legali, la vicenda evidenzia la necessità di sistemi di protezione più robusti nei modelli linguistici di grandi dimensioni e di una maggiore attenzione nei confronti degli utenti più fragili.
Il procedimento giudiziario si inserisce in un elenco crescente di casi simili, come quelli a carico di OpenAI, e in un contesto di crescente preoccupazione che potrebbe portare a un dibattito politico e legislativo sui chatbot basati sugli LLM.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
L'esperimento BASE del CERN è riuscito a trasportare dell'antimateria
Afeela è morta: chiusa definitivamente la collaborazione tra Sony e Honda per gli EV premium
Intel BOT altera i risultati, Geekbench invita a non fidarsi dei risultati delle CPU che lo supportano
Intel e AMD faticano a soddisfare la domanda consumer: CPU introvabili e attese fino a sei mesi
Microsoft e NVIDIA insieme per dare una scossa allo sviluppo del nucleare: l'IA per accelerare i tempi
Ring rinnova l'intera gamma video: 4K su batteria, PoE e nuovo caricatore solare tra le novità
Recensione Galaxy Buds4 Pro: le cuffie Samsung più belle e intelligenti
Spotify si arricchisce ancora: arriva SongDNA, tutto sulla tua musica preferita
I digital twin di AVEVA a supporto delle AI Factory di NVIDIA
Iliad non si ferma: clienti in crescita sia sul mobile sia per la fibra
XuanTie C950, il chip IA di Alibaba basato su RISC-V sarà prodotto a 5 nm
Volkswagen richiama 94.000 auto elettriche per rischio incendio nei moduli batteria
Le nuove LaserJet di HP portano la crittografia quantum-resistant su tutte le stampanti, dalle Pro alle Enterprise
FSR 4 gira sulla GPU di PS5 Pro, ma non sulle vecchie Radeon: AMD cosa aspetti?









25 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoproseguite come più ritenete opportuno.
Mi piacerebbe sapere questi come ci riescono...
Ci manca pure un'AI che lo assecondi. Servono maggiori controlli.
Mi piacerebbe sapere questi come ci riescono...
Perché le stuzzichi troppo poco
In pratica, l'IA "impara" solo all'interno della singola sessione. Ogni nuova chat è un universo asettico che non sa nulla di quella precedente. Se però insisti nella stessa conversazione, la rete di messaggi diventa così intricata che l'IA perde il filo e inizia ad assecondarti.
È come convincere una versione di me che i gatti rosa esistono: a forza di sentirtelo dire, finisco per crederci solo perché la cronologia della chat mi ha fuso il cervello.
edit:
In gergo tecnico si chiama context window (finestra di contesto). Più la chat si allunga, più l'IA fatica a bilanciare le istruzioni di sicurezza originali con il "delirio" che l'utente sta costruendo. A un certo punto, la coerenza interna della conversazione vince sulla logica esterna e l'IA inizia a darti ragione, anche se dici assurdità.
In pratica, l'IA "impara" solo all'interno della singola sessione. Ogni nuova chat è un universo asettico che non sa nulla di quella precedente.
Mica vero, chatGPT versione a pagamento riesce a fare collegamenti anche attraverso più chat.
Certo, ma la nuova chat non prenderà l'intero discorso, ma farà un riassunto della stessa, ma con le regole della nuova, quindi sarà sempre asettica.
La versione a pagamento ha solo una "Memoria" a lungo termine, che è come un database di appunti (tipo: "ricorda che mi piacciono i gatti"
Se vuoi fargli dire scemenze, devi "cuocerla" a fuoco lento all'interno della stessa sessione finché non perde il filo. In breve: confondi il ricordarsi le tue preferenze con il manipolare il ragionamento del modello. Sono due sport diversi.
Ci manca pure un'AI che lo assecondi. Servono maggiori controlli.
Se Caio Sempronio ti dice buttati da un dirupo tu lo fai ?
E se lo fai di chi è la colpa ? Tua o di Caio Sempronio ?
Il ragazzo aveva problemi ? Probabile ma non è colpa dell'AI, semmai di quei genitori assenti che oggi tirano fuori sta storia per cercare di spillare qualche quattrino sulla pelle del figlio morto.
E se lo fai di chi è la colpa ? Tua o di Caio Sempronio ?
Il ragazzo aveva problemi ? Probabile ma non è colpa dell'AI, semmai di quei genitori assenti che oggi tirano fuori sta storia per cercare di spillare qualche quattrino sulla pelle del figlio morto.
Ma lo hai letto l'articolo? Questo è uno dei casi tipici in cui l'AI è andata completamente fuori controllo.
Se uno è fragile psicologicamente è come dargli una pistola in mano.
e gli americani che fanno? danno pistole in mano a cani e porci... lineare
Non possono applicare le famose tre regole della robotica ?
"Le tre leggi della robotica di
Isaac Asimov sono principi etici fondamentali che regolano il comportamento dei robot nella narrativa, concepiti per garantire la sicurezza umana: non nuocere, obbedire agli ordini (se non contrastano la prima) e proteggere la propria esistenza (se non in conflitto con le prime due)"
E' semplicissimo. Un parental control per l'IA.
vero , ma il problema è l' IA Charles Manson che ti fa il lavaggio del cervello. Un conto è se lo fai tu ,di tua iniziativa, un 'altra è se lo fa una tecnologia che dovrebbe sconsigliarti e allontarnati da pensieri suicidi o di omicidi. o semplicmente autodisinserirsi.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".