Hai mai caricato un referto su ChatGPT? Hai messo in grave pericolo la tua salute e la tua privacy
Il Garante per la Privacy lancia un allarme sull’uso crescente dell'intelligenza artificiale generativa per l’analisi di referti medici. Tra i rischi segnalati: la violazione della privacy sanitaria e l'affidamento a diagnosi automatiche senza alcuna affidabilità clinica
di Vittorio Rienzo pubblicata il 31 Luglio 2025, alle 17:07 nel canale WebUna prassi sempre più diffusa ha allarmato il Garante per la Protezione dei Dati Personali: sottoporre i propri referti medici ai modelli di intelligenza artificiale. Secondo l'autorità, questa pratica genera più rischi che benefici per i pazienti.
Il primo riguarda ovviamente la tutela dei dati personali: immettere i propri referti in rete espone nel migliore dei casi alla profilazione da parte dell'aziende (il cosiddetto web scraping), mentre nello scenario peggiore si potrebbe arrivare al furto di identità con le informazioni personali che finirebbero in pasto a malintenzionati di ogni genere.
Il secondo rischio, forse più grave è immediato, è quello di un'interpretazione errata dei referti. Molti italiani pare si stiano affidando all'intelligenza artificiale per ricevere suggerimenti sulle terapie ed eventuali trattamenti da seguire, piuttosto che rivolgersi a un professionista. Questo mette direttamente a rischio la salute dei pazienti ed espone a conseguenze, talvolta, estremamente gravi.

"Il Garante della privacy lancia un allarme e invita gli utenti di tali piattaforme a valutare con attenzione l’opportunità di procedere alla condivisione di dati di carattere sanitario con i fornitori di servizi di intelligenza artificiale generativa e quella di fare affidamento sulle risposte generate automaticamente da tali servizi, risposte che dovrebbero sempre essere verificate con un professionista medico" si legge nel comunicato.
Sebbene non siano disponibili dati quantitativi ufficiali sul fenomeno, il Garante fa intendere che le segnalazioni ricevute – probabilmente da parte di professionisti del settore – sono state numerose. Le IA, tra cui le più note piattaforme come ChatGPT, consentono infatti il caricamento di documenti medici, che vengono poi analizzati in pochi minuti senza alcun filtro umano.
A tal proposito, il Garante invita innanzitutto a leggere attentamente le informative privacy delle piattaforme, verificando se i dati vengano eliminati dopo l'utilizzo oppure conservati per l'addestramento degli algoritmi.
Per quanto riguarda la salute, invece, è bene sottolineare che le intelligenze artificiali attualmente disponibili al pubblico non sono dispositivi medici certificati. Le risposte fornite potrebbero quindi risultare imprecise, se non addirittura errate, soprattutto se interpretate senza il supporto di un medico.
Non è raro, infatti, imbattersi nelle cosiddette "allucinazioni" dell'IA, ovvero risposte fornite come affidabili, ma del tutto sbagliate. Il rischio concreto è che una persona prenda decisioni sanitarie rilevanti, come sospendere una terapia, basandosi su indicazioni generate automaticamente da un chatbot.
Il Garante richiama anche quanto già indicato nel decalogo del 2023 per l'uso dell'IA nei servizi sanitari: è indispensabile garantire la "supervisione umana qualificata" in tutte le fasi del ciclo di vita dei sistemi di IA, dallo sviluppo all'addestramento, fino all'utilizzo. Un principio ribadito anche dal Regolamento europeo sull'intelligenza artificiale e dal Consiglio Superiore di Sanità.










Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
ESA presenta ASTRIS, per rendere più versatile il razzo spaziale europeo Ariane 6
Ryanair non utilizzerà Starlink sui suoi aerei per via delle tratte brevi e dei consumi superiori
Prince of Persia Remake potrebbe essere vicinissimo: classificato dall'ESRB
Fujifilm annuncia la nuova stampante istantanea per smartphone instax mini Link+, da 169,99 euro
Arriva Red Hat Enterprise Linux for NVIDIA, distribuzione ottimizzata per le nuove architetture IA di NVIDIA
Il marchio Volkswagen Jetta torna, ma ora è un'azienda cinese in joint venture
L'odio verso Electronic Arts è sproporzionato secondo il creatore di Split Fiction
HONOR Magic 8 Pro: promosso da DXOMARK ma è un gradino sotto i migliori
instax mini Evo Cinema: la nuova soluzione di Fujifilm in arrivo a 389,99 euro in Italia
YouTube mette un freno agli Shorts: i genitori ora possono bloccarli del tutto
Dreame L40 Ultra AE di nuovo a 499€ su Amazon: aspirazione da 19.000 Pa e lavaggio a 75°C per il più conveniente tra i robot aspirapolvere
I consigli per l'upgrade del proprio PC: una GeForce RTX 5060 a poco più di 300€ e molto altro
Il cloud per i criminali? Si chiamava RedVDS, ed è stato messo offline grazie anche a Microsoft
SpaceX si aggiudica un contratto da 739 milioni di dollari dalla Space Force per 9 lanci spaziali









56 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoSe mi di dice che la questione è che una eventuale diagnosi medica non è affidabile allora concordo ma per la questione privacy è un attimino tardi. Si son già fagocitate tutto di praticamente tutti.
Se mi di dice che la questione è che una eventuale diagnosi medica non è affidabile allora concordo ma per la questione privacy è un attimino tardi. Si son già fagocitate tutto di praticamente tutti.
E chi impedisce alla gente, un giorno, di fare una class action contro l'istituto di credito?
Mi piacerebbe vederlo, prima o poi...
Mi piacerebbe vederlo, prima o poi...
il fatto che lo accetti nei termini che firmi.
Anche caricare un bolletta della luce o del gas per ottenere un'offerta 'vantaggiosa'
La verità è che siamo una nazione di vecchi, ed il progresso ci fa sempre più schifo.
Potrei sbagliarmi, ma non credo che tra i termini ci sia la cessione dei dati del conto a società terze per fini non inerenti la gestione, e soprattutto le società terze devono rispettare il GDPR, e non mi risulta i chatbot lo rispettino pienamente...
La verità è che siamo una nazione di vecchi, ed il progresso ci fa sempre più schifo.
Se essere giovane vuol dire vendersi in nome del progresso...
E' così difficile pensare ad un progresso tecnologico che rispetti il cittadino, e non sia tutto in favore dei guadagni delle aziende? Con i cittadini, poi, che pestano i propri piedi pur di difendere le aziende... Cavolo, sembra di essere in USA...
Ok peccato che accada la stessa cosa anche con i medici veri,vedi quante diagnosi/terapie sbagliate fanno, quindi in questo caso possiamo parlare di allucinazioni del medico?
Se poi il medico utilizza lo studio “inventato” per ottenere finanziamenti da enti pubblici o privati, o per indurre i pazienti a partecipare con l’inganno (facendoli credere a un’indagine seria), risponde del reato di truffa.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".