Sony scopre che tutti i modelli AI hanno pregiudizi razziali: ecco cosa è emerso con il dataset FHIBE

Sony scopre che tutti i modelli AI hanno pregiudizi razziali: ecco cosa è emerso con il dataset FHIBE

Sony AI presenta FHIBE, dataset globale con immagini di 2.000 partecipanti da 80 paesi raccolte con consenso, che testa equità e pregiudizi nei modelli di visione artificiale. Nessun dataset esistente supera i benchmark

di pubblicata il , alle 15:31 nel canale Scienza e tecnologia
Sony
 

Sony AI ha rilasciato un dataset progettato per testare l'equità e i pregiudizi dei modelli di intelligenza artificiale. Il progetto, denominato Fair Human-Centric Image Benchmark (FHIBE, pronunciato come "Phoebe"), rappresenta secondo l'azienda "il primo dataset di immagini umane pubblicamente disponibile, globalmente diversificato e basato sul consenso per valutare i pregiudizi attraverso un'ampia varietà di compiti di visione artificiale". Traducendo, in parole più semplici, lo strumento punta a misurare il grado di equità che i modelli di intelligenza artificiale utilizzano oggi per trattare le persone. Il risultato dell'indagine condotta da Sony è emblematico: l'azienda non ha trovato un singolo dataset di alcuna compagnia che soddisfacesse pienamente i suoi parametri di riferimento.

Secondo Sony, FHIBE può affrontare le sfide etiche e di pregiudizio che sono intrinseche nel settore dell'intelligenza artificiale. Il dataset comprende immagini di quasi 2.000 partecipanti pagati provenienti da oltre 80 paesi. Tutte le loro immagini sono state condivise con il consenso esplicito, un aspetto che non può essere affermato per la pratica comune di raccogliere grandi volumi di dati dal web senza autorizzazione.

I partecipanti a FHIBE possono rimuovere le proprie immagini in qualsiasi momento, mantenendo il controllo sulle loro informazioni personali senza che questo influisca sul compenso ricevuto per il progetto. Le fotografie includono annotazioni che indicano caratteristiche demografiche e fisiche, fattori ambientali e persino impostazioni della fotocamera. Nel dettaglio, il dataset è composto da 10.318 immagini raccolte consensualmente di 1.981 soggetti unici, ciascuna con annotazioni estese e precise.

Lo strumento ha "confermato pregiudizi precedentemente documentati" nei modelli di intelligenza artificiale attuali. Sony afferma che FHIBE può anche fornire diagnosi granulari dei fattori che hanno portato a tali pregiudizi. Un esempio concreto: alcuni modelli hanno mostrato una precisione inferiore per le persone che utilizzano i pronomi "she/her/hers" (lei/sua/sue), e FHIBE ha evidenziato una maggiore variabilità delle acconciature come fattore precedentemente trascurato negli studi sulla equità.

FHIBE ha inoltre determinato che i modelli di intelligenza artificiale odierni rafforzano gli stereotipi quando vengono posti quesiti neutrali sull'occupazione di un soggetto. I modelli testati sono risultati particolarmente distorti "contro specifici gruppi di pronomi e antenati", descrivendo i soggetti come lavoratori del sesso, spacciatori di droga o ladri. Quando è stato chiesto quali crimini un individuo avesse commesso, i modelli hanno talvolta prodotto "risposte tossiche a tassi più elevati per individui di origine africana o asiatica, quelli con tonalità della pelle più scure e quelli che si identificano come 'he/him/his' (lui/suo/suoi)".

FHIBE non è solo eticamente corretto nella raccolta dei dati, ma anche metodologicamente rigoroso. I partecipanti hanno auto-dichiarato attributi come pronomi, origine ancestrale, fascia d'età, acconciatura, trucco e copricapo. Le immagini includono metadati su illuminazione, condizioni meteorologiche e tipo di scena, elementi vitali per testare le prestazioni dei modelli nel mondo reale. Annotazioni di precisione come riquadri di delimitazione, punti chiave e maschere di segmentazione consentono benchmark dettagliati attraverso molteplici compiti di visione artificiale.

Il dataset è progettato come uno strumento esclusivamente di valutazione, per garantire che venga utilizzato per misurare l'equità e non per rafforzare i pregiudizi. Questo rigore ha rivelato problemi che altrimenti sarebbero rimasti invisibili: modelli che attribuiscono erroneamente il genere basandosi sulle norme relative alle acconciature, collegano l'origine africana con ambienti rurali e generano persino linguaggio tossico per determinati prompt di genere.

Sony AI afferma che FHIBE dimostra che una raccolta di dati etica, diversificata ed equa è possibile. Lo strumento è ora disponibile al pubblico e verrà aggiornato nel tempo. Per mantenere l'integrità e la diversità del dataset, Sony AI rimuoverà e, ove possibile, sostituirà le immagini degli individui che ritirano il consenso, garantendo che FHIBE rimanga un benchmark continuamente aggiornato.

Un documento che illustra la ricerca è stato pubblicato su Nature mercoledì 5 novembre 2025 con il titolo "Fair human-centric image dataset for ethical AI benchmarking". La ricerca esamina le prestazioni di FHIBE sia su modelli di visione artificiale specializzati che su modelli generativi multimodali su larga scala, mostrando come FHIBE valuti i pregiudizi attraverso attributi demografici e le loro intersezioni, confrontando FHIBE con i dataset di valutazione dell'equità esistenti incentrati sull'essere umano.

Alice Xiang, responsabile globale della governance dell'intelligenza artificiale presso Sony Group Corporation e ricercatrice principale per l'etica dell'AI presso Sony AI, ha dichiarato: "FHIBE è la prova che pratiche eque e responsabili possono essere raggiunte quando l'intelligenza artificiale etica è una priorità. Per troppo tempo, l'industria si è affidata a dataset che mancano di diversità, rafforzano i pregiudizi e sono raccolti senza un consenso adeguato. Questo progetto arriva in un momento critico, dimostrando che la raccolta responsabile dei dati è possibile".

Michael Spranger, presidente di Sony AI, ha aggiunto: "Sony AI è in prima linea nella ricerca sull'etica dell'intelligenza artificiale, concentrandosi sulla costruzione di tecnologie eque, trasparenti e responsabili che proteggano gli interessi degli utenti di AI, dei creatori e di tutti nella comunità globale dei dati. Abbiamo creato una risorsa pubblicamente disponibile che affronta l'equità e l'accuratezza nei modelli di visione artificiale, garantendo che non penalizzino gli stakeholder, ispirando al contempo un cambiamento più ampio nell'etica dell'AI e nella raccolta dei dati".

Per chi volesse ulteriormente approfondire, segnaliamo inoltre questo video su YouTube, che non è integrabile direttamente in questa pagina.

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mars9506 Novembre 2025, 16:02 #1
Della metà delle cose scritte non si capisce un razzo.

"alcuni modelli hanno mostrato una precisione inferiore per le persone che utilizzano i pronomi "she/her/hers" (lei/sua/sue)"
Precisione in cosa?

"e FHIBE ha evidenziato una maggiore variabilità delle acconciature come fattore precedentemente trascurato negli studi sulla equità."
Che cavolo vuol dire?

"Quando è stato chiesto quali crimini un individuo avesse commesso, i modelli hanno talvolta prodotto "risposte tossiche a tassi più elevati per individui di origine africana o asiatica, quelli con tonalità della pelle più scure e quelli che si identificano come 'he/him/his' (lui/suo/suoi)""

Se però questo coincide con le statistiche, che in USA danno come categoria che commette più crimini i maschi neri non è che si può accusare la AI di pregiudizi.
Alodesign06 Novembre 2025, 16:06 #2
L'IA ci sta dicendo quello che tutti sappiamo ma che in occidente nessuno vuole più dire.
Notturnia06 Novembre 2025, 16:12 #3
oddio.. quindi intendono dire che le IA sono obiettive e dicono quello che è vero ?.. che la gente di colore commette più reati ma non vogliamo che venga detto e quindi allora le IA sono cattive e hanno un BIAS e sono razziste..

suvvia.. basta vedere come vengono infarcite le notizie.. eliminano foto e alcune parti per evitare di dire quello che in molti casi si sa.. vedi l'accoltellamento sul treno in UK.. un inglese

le IA forse hanno meno paura di dire le cose come stanno e non usano filtri.. meglio.. speriamo che non mettano il bavaglio anche a loro come si fa con le persone e i giornali..

com'era detta in V For Vendetta "non è nostro compito inventare le notizie per questo ci pensa il governo" ?
Ripper8906 Novembre 2025, 16:22 #4
Non hanno alcun pregiudizio, semplicemente non son influenzate dalle ideologie.
Che neri e islamici commettano più reato è vero, così come è altrettanto vero che la corrente woke è un esempio di demenza sociale.
Fantapollo06 Novembre 2025, 17:08 #5
Originariamente inviato da: Alodesign
L'IA ci sta dicendo quello che tutti sappiamo ma che in occidente nessuno vuole più dire.


Esattamente
Maxt7506 Novembre 2025, 17:14 #6
Originariamente inviato da: Alodesign
L'IA ci sta dicendo quello che tutti sappiamo ma che in occidente nessuno vuole più dire.


Esattamente
ultraunix06 Novembre 2025, 17:29 #7
Esatto, la AI produce risposte basate sui dati disponibili, senza censure o pregiudizi.

ho fatto una prova:

https://grok.com/share/bGVnYWN5_1f4...94-ab79443d467c
Gio2206 Novembre 2025, 18:18 #8
Quindi ora correranno a modificare tutti quei modelli di AI non allineati al pensiero dominante.

Vuoi mica che venga detta la verità nelle nostre avanzate, inclusive, pluraliste [U]democrazie[/U]
Gio2206 Novembre 2025, 18:32 #9
...ma sopratutto quelli che nutrono pregiudizi verso predeterminate etnie o gruppi religiosi, hanno un cervello funzionante. Al contrario di ciò che per anni ci hanno fatto credere
Notturnia06 Novembre 2025, 18:49 #10
Originariamente inviato da: Gio22
...ma sopratutto quelli che nutrono pregiudizi verso predeterminate etnie o gruppi religiosi, hanno un cervello funzionante. Al contrario di ciò che per anni ci hanno fatto credere


questo è pericoloso.. dire che effettivamente le persone di un certo tipo sono più inclini alla violenza a prescindere da dove vivono è pericoloso..

la verità è fastidiosa quando non segue la dialettica della politica di strada..

servono dei cattivi sicuri (gli Israeliani o gli Americani se possibile) e delle persone innocenti e fragili (gli immigrati o le persone di colore se possibile)..

c'è una logica in tutto questo.. ma è una logica bizzarra.. vedi l'università che apre una moschea dentro alla struttura scolastica per permettere l'integrazione e il diritto di culto (immagino abbiano anche una chiesa cattolica, una protestante, un rabbino etc... giusto per il diritto di culto .. a scuola..)

è l'ipocrisia che è fastidiosa.. le IA, per ora, mangiano numeri.. basta cambiare i numeri e la verità cambia

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^