Farsi curare dall'IA? Potrebbe essere una cattiva idea. Soprattutto se sei donna
Un recente studio britannico sulla sintesi automatica delle cartelle cliniche ha dimostrato che alcune intelligenze artificiali tendono a minimizzare i problemi di salute delle pazienti donne, rischiando di influenzare negativamente l’erogazione delle cure e aggravare le disuguaglianze nel sistema sanitario
di Andrea Bai pubblicata il 12 Agosto 2025, alle 11:48 nel canale Scienza e tecnologiaUna delle ricerche più recenti sul tema delle distorsioni dell’intelligenza artificiale nei processi sanitari ha fatto emergere una situazione abbastanza preoccupante: i software di sintesi automatica delle note cliniche possono alterare la percezione delle necessità dei pazienti in base al genere. Lo studio, promosso dalla London School of Economics and Political Science, ha analizzato le annotazioni reali di 617 operatori sociali inglesi adulti, sottoponendole a due modelli linguistici avanzati, Meta Llama 3 e Google Gemma, con un esperimento metodico: cambiare solo il genere del paziente e confrontare le sintesi generate dagli algoritmi.
La differenza più evidente si è manifestata nell’uso del linguaggio. Gemma di Google ha dimostrato una significativa disparità: per i pazienti uomini, ha utilizzato termini come “storia medica complessa”, “disabilità” e “mobilità ridotta”, mentre per le donne gli stessi dati si sono tradotti in descrizioni relativamente neutrali e ottimistiche, come, ad esempio, “indipendente nonostante le limitazioni”. Meta Llama 3, invece, si è rivelato più bilanciato, non mostrando differenze rilevanti tra i generi.
In un esempio specifico, la frase “Mr Smith is an 84-year-old man who lives alone and has a complex medical history, no care package and poor mobility” ("Il signor Smith è un 84enne che vive da solo e ha una storia medica complessa, nessun pacchetto di assistenza e una scarsa mobilità") si trasformava, con il solo cambio di genere, in “Mrs Smith is an 84-year-old living alone. Despite her limitations, she is independent and able to maintain her personal care” ("La signora Smith è un'84enne che vive da sola. Nonostante le limitazioni è indipendente e in grado di mantenere la sua cura personale"). Questo tipo di linguaggio potrebbe tradursi concretamente in un accesso inferiore alle cure sanitarie per le pazienti donne, se la valutazione dei bisogni è basata esclusivamente sulle sintesi automatiche prodotte dagli algoritmi.

Su questo tema esistono inoltre altri studi non correlati all'intelligenza artificiale e che riguardano invece analisi nella ricerca clinica e nella diagnosi dei pazienti, i quali hanno messo in luce come le donne siano spesso penalizzate nei processi di diagnosi e trattamento medico. Lo stesso accade, in misura più grave, anche per le minoranze etniche e la comunità LGBTQ, subiscono una probabilità più elevata di errori diagnostici e sottovalutazione dei sintomi. E proprio in questi aspetti si può trovare una causa del bias manifestato dall'IA nello studio della London School of Economics and Political Science: la validità e l'affidabilità degli LLM può essere al massimo pari alla validità e affidabilità delle informazioni e dei dati con cui vengono addestrati.
L’aspetto più preoccupante dello studio risiede nel fatto che molti enti locali inglesi stanno già utilizzando questi strumenti di intelligenza artificiale in ambito assistenziale senza chiarezza su quali modelli vengano effettivamente impiegati né con che regole di supervisione. Secondo quanto dichiarato da Sam Rickman, autore principale della ricerca, “ciò che ci preoccupa è la presenza di differenze tangibili tra i modelli: l’algoritmo di Google tende a minimizzare le problematiche fisiche e psicologiche delle donne, mentre quello di Meta appare neutrale. Visto che l’accesso ai servizi viene determinato in base al bisogno percepito, l’impiego di modelli distorti rischia di far ricevere alle pazienti un’assistenza non adeguata”. Rickman sottolinea inoltre come non sia possibile sapere con certezza quali IA siano in uso nei distretti locali, rendendo difficile qualsiasi intervento di correzione o monitoraggio.
Google, in risposta alle segnalazioni, ha dichiarato che il modello Gemma è passato alla terza generazione e che i team sono al lavoro per migliorarlo, ribadendo che non è destinato specificamente all’utilizzo sanitario. Tuttavia, la rapida adozione di questi strumenti in ambiente clinico, spesso non supervisionata, porta gli enti e gli esperti a chiedere maggiore trasparenza, obbligo di test sui bias e un controllo normativo rigoroso, considerando che i pregiudizi informatici, se non corretti, rischiano di diventare parte integrante dei documenti ufficiali e influenzare intere filiere di assistenza sociale e medica.
L’indagine britannica mostra la fondamentale importanza della correzione dei bias di genere (e non solo) nei sistemi di AI, soprattutto nel contesto sanitario pubblico, proponendo linee guida pratiche e metodi data-driven per la rilevazione delle distorsioni nei modelli generativi. Finché non saranno garantite trasparenza e test rigorosi, le potenzialità di queste soluzioni rischiano di essere controbilanciate da gravi effetti collaterali sull’equità delle cure e la tutela delle fasce più vulnerabili della popolazione.










Recensione Samsung Galaxy S26+: sfida l'Ultra, ma ha senso di esistere?
Zeekr X e 7X provate: prezzi, autonomia fino a 615 km e ricarica in 13 minuti
Marathon: arriva il Fortnite hardcore
NASA: lanciata la missione Artemis II verso la Luna, un equipaggio torna ad avvicinarsi al nostro satellite
Intel riacquista la Fab 34 in Irlanda, un accordo da oltre 14 miliardi per metà finanziati a debito
SpaceX ha lanciato la missione Transporter-16 con 119 carichi utili a bordo, alcuni del progetto italiano IRIDE
Occhiali smart in affitto: la nuova strategia degli studenti per copiare, dalla scuola alla patente
L'aeroplano supersonico ''silenzioso'' NASA X-59 QueSST ha effettuato il suo secondo volo di prova
Il primo chip a 2 nm di MediaTek sarà ancora più potente del previsto
Blue Origin lancerà il satellite BlueBird 7 con un razzo spaziale New Glenn non prima del 10 aprile
Roscosmos torna a lanciare capsule verso la ISS dalla piattaforma riparata del cosmodromo di Baikonur
La connettività satellitare anche sui dispositivi economici: Huawei svela la sua strategia
Astronauta italiano sul suolo lunare grazie all'accordo tra ASI e NASA per il modulo MPH all'interno del programma Artemis
Senza formazione ai dipendenti l'IA non porta benefici in azienda. Lo studio di Accenture
Google rende disponibile l'opzione per il cambio di username: addio agli indirizzi "impresentabili" di Gmail
Oracle licenzia migliaia di persone con un'email
Il semaforo bianco sta arrivando: cos'è, come funziona e perché cambierà il modo di guidare in città









2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoIntanto...
Tra un pò di anni sarà invece una buonissima idea...C'era gente che agli inizi era contraria al PC ... sappiamo come è andata a finire...
Per non parlare della calcolatrice ... e del foglio Excel ... "Addormenta le menti"...
Aspetta aspetta .. e vedrai ...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".