ChatGPT e il caso del 60enne finito in ospedale: un avvelenamento che riaccende il dibattito sull'uso dell'AI in salute
Un uomo di 60 anni negli Stati Uniti ha sviluppato bromismo, una condizione quasi scomparsa, dopo aver seguito un consiglio trovato su ChatGPT per sostituire nella sua dieta il sale da cucina. Il caso, descritto su Annals of Internal Medicine, pone nuovi interrogativi sulla sicurezza delle risposte AI in ambito medico
di Rosario Grasso pubblicata il 13 Agosto 2025, alle 16:01 nel canale WebOpenAIChatGPT
Un articolo pubblicato sulla rivista scientifica statunitense Annals of Internal Medicine ha riportato un episodio che sta facendo discutere la comunità medica e tecnologica. Un uomo di 60 anni, dopo aver letto dei presunti effetti nocivi del cloruro di sodio, ha chiesto a ChatGPT come eliminarlo dalla dieta. Il modello di IA ha citato il bromuro di sodio come possibile sostituto, senza fornire un avvertimento sanitario specifico. L'uomo ha quindi assunto questa sostanza per circa tre mesi, sviluppando bromismo, una rara forma di tossicità da bromuro diffusa soprattutto nei primi decenni del Novecento.
I medici dell'Università di Washington, che hanno seguito il caso, spiegano che all'epoca il bromuro di sodio veniva usato come sedativo e che il bromismo era responsabile di quasi un decimo dei ricoveri psichiatrici. Il paziente si è presentato in ospedale sospettando di essere stato avvelenato da un vicino, mostrava paranoia e rifiutava persino l'acqua che gli veniva offerta. Nel giro di 24 ore ha tentato la fuga, ed è stato trattenuto per un trattamento legato a sintomi psicotici. Dopo la stabilizzazione, ha riferito altri disturbi tipici della condizione, tra cui acne sul volto, sete eccessiva e insonnia.
Gli autori dell'articolo sottolineano che, pur non avendo accesso alla cronologia della conversazione, una loro prova diretta su ChatGPT ha prodotto risposte simili: l'indicazione del bromuro come sostituto del cloruro, senza indagare sulle motivazioni della richiesta. Una mancanza di contestualizzazione che, secondo i ricercatori, un medico non avrebbe avuto. Il caso diventa quindi un monito sui rischi legati a informazioni sanitarie fornite da intelligenze artificiali, che possono contenere imprecisioni scientifiche e favorire la diffusione di contenuti non corretti.
OpenAI, che la scorsa settimana ha presentato GPT-5 con funzioni avanzate anche per il settore salute, ribadisce che ChatGPT non è un sostituto della consulenza medica e non va utilizzato per diagnosi o trattamenti. Il caso che stiamo qui riportando, comunque, si riferisce a una versione antecedente di ChatGPT. Gli stessi autori concludono che i medici dovranno considerare l'uso di strumenti AI tra le possibili fonti di informazione dei pazienti, soprattutto in casi di patologie insolite o sintomi atipici.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi
Melania Trump scortata da un robot umanoide alla Casa Bianca. Il video è virale
HONOR 600: nuove conferme sulle specifiche del nuovo mid-range con batteria enorme
Blade 16: Razer sostituisce AMD con Intel, e i prezzi volano
Solo 649€ con coupon: questa e-bike da città HillMiles ha 100 km di autonomia, batteria rimovibile IP65 ed è in offerta in 3 colori
Arriva AI Dividend: 1.000 dollari al mese per chi ha perso il lavoro a causa dell'intelligenza artificiale
Forza Horizon 6 sorprende con requisiti PC accessibili e supporto al gaming handheld fin dal lancio









23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoUn uomo di 60 anni negli Stati Uniti ha sviluppato bromismo, una condizione quasi scomparsa, dopo aver seguito un consiglio trovato su ChatGPT per sostituire nella sua dieta il sale da cucina. Il caso, descritto su Annals of Internal Medicine, pone nuovi interrogativi sulla sicurezza delle risposte AI in ambito medico
Click sul link per visualizzare la notizia.
Ma per favore… gli interrogativi sono da porsi nei confronti di quella persona.
Tieni presente che una porzione della popolazione è mediamente scema. C'è chi si cura con l'omeopatia, chi cura i tumori con sale e limone, chi casca nella rete dei truffatori da televendita stile Wanna Marchi e adesso ci saranno anche quelli che pendono dalla labbra digitali degli LLM
come si diceva una volta:
se ti dicono di buttarti nel fiume tu lo fai ?
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".