ChatGPT e il caso del 60enne finito in ospedale: un avvelenamento che riaccende il dibattito sull'uso dell'AI in salute

ChatGPT e il caso del 60enne finito in ospedale: un avvelenamento che riaccende il dibattito sull'uso dell'AI in salute

Un uomo di 60 anni negli Stati Uniti ha sviluppato bromismo, una condizione quasi scomparsa, dopo aver seguito un consiglio trovato su ChatGPT per sostituire nella sua dieta il sale da cucina. Il caso, descritto su Annals of Internal Medicine, pone nuovi interrogativi sulla sicurezza delle risposte AI in ambito medico

di pubblicata il , alle 16:01 nel canale Web
OpenAIChatGPT
 

Un articolo pubblicato sulla rivista scientifica statunitense Annals of Internal Medicine ha riportato un episodio che sta facendo discutere la comunità medica e tecnologica. Un uomo di 60 anni, dopo aver letto dei presunti effetti nocivi del cloruro di sodio, ha chiesto a ChatGPT come eliminarlo dalla dieta. Il modello di IA ha citato il bromuro di sodio come possibile sostituto, senza fornire un avvertimento sanitario specifico. L'uomo ha quindi assunto questa sostanza per circa tre mesi, sviluppando bromismo, una rara forma di tossicità da bromuro diffusa soprattutto nei primi decenni del Novecento.

I medici dell'Università di Washington, che hanno seguito il caso, spiegano che all'epoca il bromuro di sodio veniva usato come sedativo e che il bromismo era responsabile di quasi un decimo dei ricoveri psichiatrici. Il paziente si è presentato in ospedale sospettando di essere stato avvelenato da un vicino, mostrava paranoia e rifiutava persino l'acqua che gli veniva offerta. Nel giro di 24 ore ha tentato la fuga, ed è stato trattenuto per un trattamento legato a sintomi psicotici. Dopo la stabilizzazione, ha riferito altri disturbi tipici della condizione, tra cui acne sul volto, sete eccessiva e insonnia.

ChatGPT

Gli autori dell'articolo sottolineano che, pur non avendo accesso alla cronologia della conversazione, una loro prova diretta su ChatGPT ha prodotto risposte simili: l'indicazione del bromuro come sostituto del cloruro, senza indagare sulle motivazioni della richiesta. Una mancanza di contestualizzazione che, secondo i ricercatori, un medico non avrebbe avuto. Il caso diventa quindi un monito sui rischi legati a informazioni sanitarie fornite da intelligenze artificiali, che possono contenere imprecisioni scientifiche e favorire la diffusione di contenuti non corretti.

OpenAI, che la scorsa settimana ha presentato GPT-5 con funzioni avanzate anche per il settore salute, ribadisce che ChatGPT non è un sostituto della consulenza medica e non va utilizzato per diagnosi o trattamenti. Il caso che stiamo qui riportando, comunque, si riferisce a una versione antecedente di ChatGPT. Gli stessi autori concludono che i medici dovranno considerare l'uso di strumenti AI tra le possibili fonti di informazione dei pazienti, soprattutto in casi di patologie insolite o sintomi atipici.

23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
aqua8413 Agosto 2025, 16:04 #1
Originariamente inviato da: Redazione di Hardware Upgrade
Link alla notizia: https://www.hwupgrade.it/news/web/c...ute_142188.html

Un uomo di 60 anni negli Stati Uniti ha sviluppato bromismo, una condizione quasi scomparsa, dopo aver seguito un consiglio trovato su ChatGPT per sostituire nella sua dieta il sale da cucina. Il caso, descritto su Annals of Internal Medicine, pone nuovi interrogativi sulla sicurezza delle risposte AI in ambito medico

Click sul link per visualizzare la notizia.


Ma per favore… gli interrogativi sono da porsi nei confronti di quella persona.
blackshard13 Agosto 2025, 16:41 #2
Originariamente inviato da: aqua84
Ma per favore… gli interrogativi sono da porsi nei confronti di quella persona.


Tieni presente che una porzione della popolazione è mediamente scema. C'è chi si cura con l'omeopatia, chi cura i tumori con sale e limone, chi casca nella rete dei truffatori da televendita stile Wanna Marchi e adesso ci saranno anche quelli che pendono dalla labbra digitali degli LLM
Unax13 Agosto 2025, 17:01 #3
penso di sapere per chi vota
gd350turbo13 Agosto 2025, 17:02 #4
Si ma dai a 60anni, un pò di sale in zucca ti dovrebbe essere entrato !
come si diceva una volta:
se ti dicono di buttarti nel fiume tu lo fai ?
euscar13 Agosto 2025, 17:15 #5
Due sole parole: selezione naturale
zbear13 Agosto 2025, 17:31 #6
Boh, niente di strano. Fra chi si fida di santoni, di preti, di diete miracolose di youtube, di influencer con la 3° media, di sette, di gente con il cervello fritto ne abbiamo tanta. Anche di gente con fiducia cieca nelle pseudo AI ce ne sono a pacchi: è semplicemente un'altra forma di pensiero magico, per cui la credulità della gente VORREBBE influenzare le leggi fisiche (e ovviamente non funziona). Come già detto, abbiamo solo un altro mezzo in mano alla selezione naturale ..... e in mano ai truffatori consapevoli della dabbenaggine della gente.
Super-Vegèta13 Agosto 2025, 17:46 #7
I problemi in questi casi, non sono di chatgpt. Qui abbiamo QI degni di un criceto
rattopazzo13 Agosto 2025, 18:36 #8
Non che il sale da cucina sia esente da effetti collaterali, anche gravi, soprattutto se consumato in eccesso, esistono molti modi decisamente più sicuri per sostituirlo nella dieta, senza rinunciare al piacere di assaporare i cibi come ad esempio spezie e erbe aromatiche, decisamente il bromuro di sodio non è la scelta migliore...
Opteranium13 Agosto 2025, 19:29 #9
responsabilità civile e penale per le IA, ormai i tempi sono maturi, vedete come si fa presto a far implodere ste robe
supertigrotto13 Agosto 2025, 20:03 #10
È lo stesso fenomeno per cui,le nuove generazioni sono quelle più colpite da scam,pishing e quant' altro,perché se è su internet,su tik tok e cavolate varie,allora è sicuramente vero.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^