Hai mai caricato un referto su ChatGPT? Hai messo in grave pericolo la tua salute e la tua privacy

Hai mai caricato un referto su ChatGPT? Hai messo in grave pericolo la tua salute e la tua privacy

Il Garante per la Privacy lancia un allarme sull’uso crescente dell'intelligenza artificiale generativa per l’analisi di referti medici. Tra i rischi segnalati: la violazione della privacy sanitaria e l'affidamento a diagnosi automatiche senza alcuna affidabilità clinica

di pubblicata il , alle 17:07 nel canale Web
 

Una prassi sempre più diffusa ha allarmato il Garante per la Protezione dei Dati Personali: sottoporre i propri referti medici ai modelli di intelligenza artificiale. Secondo l'autorità, questa pratica genera più rischi che benefici per i pazienti.

Il primo riguarda ovviamente la tutela dei dati personali: immettere i propri referti in rete espone nel migliore dei casi alla profilazione da parte dell'aziende (il cosiddetto web scraping), mentre nello scenario peggiore si potrebbe arrivare al furto di identità con le informazioni personali che finirebbero in pasto a malintenzionati di ogni genere.

Il secondo rischio, forse più grave è immediato, è quello di un'interpretazione errata dei referti. Molti italiani pare si stiano affidando all'intelligenza artificiale per ricevere suggerimenti sulle terapie ed eventuali trattamenti da seguire, piuttosto che rivolgersi a un professionista. Questo mette direttamente a rischio la salute dei pazienti ed espone a conseguenze, talvolta, estremamente gravi.

"Il Garante della privacy lancia un allarme e invita gli utenti di tali piattaforme a valutare con attenzione l’opportunità di procedere alla condivisione di dati di carattere sanitario con i fornitori di servizi di intelligenza artificiale generativa e quella di fare affidamento sulle risposte generate automaticamente da tali servizi, risposte che dovrebbero sempre essere verificate con un professionista medico" si legge nel comunicato.

Sebbene non siano disponibili dati quantitativi ufficiali sul fenomeno, il Garante fa intendere che le segnalazioni ricevute – probabilmente da parte di professionisti del settore – sono state numerose. Le IA, tra cui le più note piattaforme come ChatGPT, consentono infatti il caricamento di documenti medici, che vengono poi analizzati in pochi minuti senza alcun filtro umano.

A tal proposito, il Garante invita innanzitutto a leggere attentamente le informative privacy delle piattaforme, verificando se i dati vengano eliminati dopo l'utilizzo oppure conservati per l'addestramento degli algoritmi.

Per quanto riguarda la salute, invece, è bene sottolineare che le intelligenze artificiali attualmente disponibili al pubblico non sono dispositivi medici certificati. Le risposte fornite potrebbero quindi risultare imprecise, se non addirittura errate, soprattutto se interpretate senza il supporto di un medico.

Non è raro, infatti, imbattersi nelle cosiddette "allucinazioni" dell'IA, ovvero risposte fornite come affidabili, ma del tutto sbagliate. Il rischio concreto è che una persona prenda decisioni sanitarie rilevanti, come sospendere una terapia, basandosi su indicazioni generate automaticamente da un chatbot.

Il Garante richiama anche quanto già indicato nel decalogo del 2023 per l'uso dell'IA nei servizi sanitari: è indispensabile garantire la "supervisione umana qualificata" in tutte le fasi del ciclo di vita dei sistemi di IA, dallo sviluppo all'addestramento, fino all'utilizzo. Un principio ribadito anche dal Regolamento europeo sull'intelligenza artificiale e dal Consiglio Superiore di Sanità.

56 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Darkon31 Luglio 2025, 17:14 #1
Mi viene da ridere... ormai tutti i principali istituti di credito usano IA ad esempio copilot e gli danno in pasto analisi dati e creazione di slide con la qualunque dentro e sia chiaro IA che sono state rese strumento ufficiale e non iniziativa del singolo.

Se mi di dice che la questione è che una eventuale diagnosi medica non è affidabile allora concordo ma per la questione privacy è un attimino tardi. Si son già fagocitate tutto di praticamente tutti.
marcram31 Luglio 2025, 17:21 #2
Originariamente inviato da: Darkon
Mi viene da ridere... ormai tutti i principali istituti di credito usano IA ad esempio copilot e gli danno in pasto analisi dati e creazione di slide con la qualunque dentro e sia chiaro IA che sono state rese strumento ufficiale e non iniziativa del singolo.

Se mi di dice che la questione è che una eventuale diagnosi medica non è affidabile allora concordo ma per la questione privacy è un attimino tardi. Si son già fagocitate tutto di praticamente tutti.

E chi impedisce alla gente, un giorno, di fare una class action contro l'istituto di credito?
Mi piacerebbe vederlo, prima o poi...
matrix8331 Luglio 2025, 17:31 #3
Originariamente inviato da: marcram
E chi impedisce alla gente, un giorno, di fare una class action contro l'istituto di credito?
Mi piacerebbe vederlo, prima o poi...


il fatto che lo accetti nei termini che firmi.
giovanni6931 Luglio 2025, 17:40 #4
Vabbè basta oscurare i dati personali e ChatGPT non può inventarsi il nome del paziente.
Anche caricare un bolletta della luce o del gas per ottenere un'offerta 'vantaggiosa' espone il cliente ai simili rischi (e non solo ad es. il POD).
aqua8431 Luglio 2025, 17:51 #5
Se carichi APPOSTA la tua cartella clinica su chat gpt hai chiaramente già dei problemi molto seri, a livello mentale almeno.
Lo Straniero Misterioso31 Luglio 2025, 18:05 #6
No Watt, No Vax, No TAV, No Nuke, No AI.

La verità è che siamo una nazione di vecchi, ed il progresso ci fa sempre più schifo.
marcram31 Luglio 2025, 18:50 #7
Originariamente inviato da: matrix83
il fatto che lo accetti nei termini che firmi.

Potrei sbagliarmi, ma non credo che tra i termini ci sia la cessione dei dati del conto a società terze per fini non inerenti la gestione, e soprattutto le società terze devono rispettare il GDPR, e non mi risulta i chatbot lo rispettino pienamente...
Originariamente inviato da: Lo Straniero Misterioso
No Watt, No Vax, No TAV, No Nuke, No AI.

La verità è che siamo una nazione di vecchi, ed il progresso ci fa sempre più schifo.

Se essere giovane vuol dire vendersi in nome del progresso...
E' così difficile pensare ad un progresso tecnologico che rispetti il cittadino, e non sia tutto in favore dei guadagni delle aziende? Con i cittadini, poi, che pestano i propri piedi pur di difendere le aziende... Cavolo, sembra di essere in USA...
randorama31 Luglio 2025, 19:07 #8
io gli ho chiesto dei consigli per l'orchite rotatoria cronica... dite che sono nei guai?
Angel_731 Luglio 2025, 19:53 #9
"Non è raro, infatti, imbattersi nelle cosiddette "allucinazioni" dell'IA, ovvero risposte fornite come affidabili, ma del tutto sbagliate".
Ok peccato che accada la stessa cosa anche con i medici veri,vedi quante diagnosi/terapie sbagliate fanno, quindi in questo caso possiamo parlare di allucinazioni del medico?
giovanni6931 Luglio 2025, 20:24 #10
Se un medico si inventa di sana pianta la bibliografia o il titolo di uno studio clinico risponde per falso ideologico in atto pubblico che non è meramente negligenza professionale; per l'AI è stata definita come un'allucinazione... che è stato un modo per assegnare un sostantivo così nebuloso da metter in secondo piano che è semplicemente un errore del modello.

Se poi il medico utilizza lo studio “inventato” per ottenere finanziamenti da enti pubblici o privati, o per indurre i pazienti a partecipare con l’inganno (facendoli credere a un’indagine seria), risponde del reato di truffa.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^