Sony scopre che tutti i modelli AI hanno pregiudizi razziali: ecco cosa è emerso con il dataset FHIBE
Sony AI presenta FHIBE, dataset globale con immagini di 2.000 partecipanti da 80 paesi raccolte con consenso, che testa equità e pregiudizi nei modelli di visione artificiale. Nessun dataset esistente supera i benchmark
di Andrea Bai pubblicata il 06 Novembre 2025, alle 15:31 nel canale Scienza e tecnologiaSony
Sony AI ha rilasciato un dataset progettato per testare l'equità e i pregiudizi dei modelli di intelligenza artificiale. Il progetto, denominato Fair Human-Centric Image Benchmark (FHIBE, pronunciato come "Phoebe"), rappresenta secondo l'azienda "il primo dataset di immagini umane pubblicamente disponibile, globalmente diversificato e basato sul consenso per valutare i pregiudizi attraverso un'ampia varietà di compiti di visione artificiale". Traducendo, in parole più semplici, lo strumento punta a misurare il grado di equità che i modelli di intelligenza artificiale utilizzano oggi per trattare le persone. Il risultato dell'indagine condotta da Sony è emblematico: l'azienda non ha trovato un singolo dataset di alcuna compagnia che soddisfacesse pienamente i suoi parametri di riferimento.
Secondo Sony, FHIBE può affrontare le sfide etiche e di pregiudizio che sono intrinseche nel settore dell'intelligenza artificiale. Il dataset comprende immagini di quasi 2.000 partecipanti pagati provenienti da oltre 80 paesi. Tutte le loro immagini sono state condivise con il consenso esplicito, un aspetto che non può essere affermato per la pratica comune di raccogliere grandi volumi di dati dal web senza autorizzazione.
I partecipanti a FHIBE possono rimuovere le proprie immagini in qualsiasi momento, mantenendo il controllo sulle loro informazioni personali senza che questo influisca sul compenso ricevuto per il progetto. Le fotografie includono annotazioni che indicano caratteristiche demografiche e fisiche, fattori ambientali e persino impostazioni della fotocamera. Nel dettaglio, il dataset è composto da 10.318 immagini raccolte consensualmente di 1.981 soggetti unici, ciascuna con annotazioni estese e precise.
Lo strumento ha "confermato pregiudizi precedentemente documentati" nei modelli di intelligenza artificiale attuali. Sony afferma che FHIBE può anche fornire diagnosi granulari dei fattori che hanno portato a tali pregiudizi. Un esempio concreto: alcuni modelli hanno mostrato una precisione inferiore per le persone che utilizzano i pronomi "she/her/hers" (lei/sua/sue), e FHIBE ha evidenziato una maggiore variabilità delle acconciature come fattore precedentemente trascurato negli studi sulla equità.
FHIBE ha inoltre determinato che i modelli di intelligenza artificiale odierni rafforzano gli stereotipi quando vengono posti quesiti neutrali sull'occupazione di un soggetto. I modelli testati sono risultati particolarmente distorti "contro specifici gruppi di pronomi e antenati", descrivendo i soggetti come lavoratori del sesso, spacciatori di droga o ladri. Quando è stato chiesto quali crimini un individuo avesse commesso, i modelli hanno talvolta prodotto "risposte tossiche a tassi più elevati per individui di origine africana o asiatica, quelli con tonalità della pelle più scure e quelli che si identificano come 'he/him/his' (lui/suo/suoi)".FHIBE non è solo eticamente corretto nella raccolta dei dati, ma anche metodologicamente rigoroso. I partecipanti hanno auto-dichiarato attributi come pronomi, origine ancestrale, fascia d'età, acconciatura, trucco e copricapo. Le immagini includono metadati su illuminazione, condizioni meteorologiche e tipo di scena, elementi vitali per testare le prestazioni dei modelli nel mondo reale. Annotazioni di precisione come riquadri di delimitazione, punti chiave e maschere di segmentazione consentono benchmark dettagliati attraverso molteplici compiti di visione artificiale.
Il dataset è progettato come uno strumento esclusivamente di valutazione, per garantire che venga utilizzato per misurare l'equità e non per rafforzare i pregiudizi. Questo rigore ha rivelato problemi che altrimenti sarebbero rimasti invisibili: modelli che attribuiscono erroneamente il genere basandosi sulle norme relative alle acconciature, collegano l'origine africana con ambienti rurali e generano persino linguaggio tossico per determinati prompt di genere.

Sony AI afferma che FHIBE dimostra che una raccolta di dati etica, diversificata ed equa è possibile. Lo strumento è ora disponibile al pubblico e verrà aggiornato nel tempo. Per mantenere l'integrità e la diversità del dataset, Sony AI rimuoverà e, ove possibile, sostituirà le immagini degli individui che ritirano il consenso, garantendo che FHIBE rimanga un benchmark continuamente aggiornato.
Un documento che illustra la ricerca è stato pubblicato su Nature mercoledì 5 novembre 2025 con il titolo "Fair human-centric image dataset for ethical AI benchmarking". La ricerca esamina le prestazioni di FHIBE sia su modelli di visione artificiale specializzati che su modelli generativi multimodali su larga scala, mostrando come FHIBE valuti i pregiudizi attraverso attributi demografici e le loro intersezioni, confrontando FHIBE con i dataset di valutazione dell'equità esistenti incentrati sull'essere umano.
Alice Xiang, responsabile globale della governance dell'intelligenza artificiale presso Sony Group Corporation e ricercatrice principale per l'etica dell'AI presso Sony AI, ha dichiarato: "FHIBE è la prova che pratiche eque e responsabili possono essere raggiunte quando l'intelligenza artificiale etica è una priorità. Per troppo tempo, l'industria si è affidata a dataset che mancano di diversità, rafforzano i pregiudizi e sono raccolti senza un consenso adeguato. Questo progetto arriva in un momento critico, dimostrando che la raccolta responsabile dei dati è possibile".
Michael Spranger, presidente di Sony AI, ha aggiunto: "Sony AI è in prima linea nella ricerca sull'etica dell'intelligenza artificiale, concentrandosi sulla costruzione di tecnologie eque, trasparenti e responsabili che proteggano gli interessi degli utenti di AI, dei creatori e di tutti nella comunità globale dei dati. Abbiamo creato una risorsa pubblicamente disponibile che affronta l'equità e l'accuratezza nei modelli di visione artificiale, garantendo che non penalizzino gli stakeholder, ispirando al contempo un cambiamento più ampio nell'etica dell'AI e nella raccolta dei dati".
Per chi volesse ulteriormente approfondire, segnaliamo inoltre questo video su YouTube, che non è integrabile direttamente in questa pagina.










FRITZ!Repeater 1700 estende la rete super-veloce Wi-Fi 7
Fondazione Chips-IT, l'Italia alla riscossa nei chip. Il piano e la partnership EssilorLuxottica
Nutanix: innovazione, semplicità e IA al centro della strategia hybrid multicloud
Il futuro dei chip è verticale: RAM e logica impilati per chip più efficienti, ma realizzabili (quasi) ovunque
Accenture e Anthropic insieme per aiutare le imprese a sprigionare il valore dell'IA
Fino a 360 GB su un vetro grande come una moneta: l'archiviazione del futuro presto alla prova dei fatti
tado° porta il bilanciamento idraulico automatico nelle case: più efficienza nel riscaldamento senza interventi tecnici
Metallo liquido o solido? Entrambi, contemporaneamente: lo stato ibrido che sfida la fisica
iPhone 17 Pro Max in offerta su Amazon: la versione da 256 GB scende a 1.349€
A Taranto divieto di bici, e-bike e monopattini in zone pedonali. Richiesta una revisione
Scopa elettrica lava e aspira come una top di gamma: DREAME H12 Pro FlexReach scende a 229€ su Amazon
SumUp continua a crescere ed espande l'offerta
Volkswagen ID.Polo: da 25.000 euro, in quattro versioni con due batterie
iPhone Fold: le ultime indiscrezioni suggeriscono l'assenza del Face ID
Audi Revolut F1 Team: annunciati nome e logo della nuova squadra del circus
Resident Evil - Code Veronica Remake: l'annuncio è atteso per il prossimo anno con uscita nel 2027
Occhio ai prezzi dei robot ECOVACS Deebot: su Amazon si torna ai livelli del Black Friday da 199€









12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info"alcuni modelli hanno mostrato una precisione inferiore per le persone che utilizzano i pronomi "she/her/hers" (lei/sua/sue)"
Precisione in cosa?
"e FHIBE ha evidenziato una maggiore variabilità delle acconciature come fattore precedentemente trascurato negli studi sulla equità."
Che cavolo vuol dire?
"Quando è stato chiesto quali crimini un individuo avesse commesso, i modelli hanno talvolta prodotto "risposte tossiche a tassi più elevati per individui di origine africana o asiatica, quelli con tonalità della pelle più scure e quelli che si identificano come 'he/him/his' (lui/suo/suoi)""
Se però questo coincide con le statistiche, che in USA danno come categoria che commette più crimini i maschi neri non è che si può accusare la AI di pregiudizi.
suvvia.. basta vedere come vengono infarcite le notizie.. eliminano foto e alcune parti per evitare di dire quello che in molti casi si sa.. vedi l'accoltellamento sul treno in UK.. un inglese
le IA forse hanno meno paura di dire le cose come stanno e non usano filtri.. meglio.. speriamo che non mettano il bavaglio anche a loro come si fa con le persone e i giornali..
com'era detta in V For Vendetta "non è nostro compito inventare le notizie per questo ci pensa il governo" ?
Che neri e islamici commettano più reato è vero, così come è altrettanto vero che la corrente woke è un esempio di demenza sociale.
Esattamente
Esattamente
ho fatto una prova:
https://grok.com/share/bGVnYWN5_1f4...94-ab79443d467c
Vuoi mica che venga detta la verità nelle nostre avanzate, inclusive, pluraliste [U]democrazie[/U]
questo è pericoloso.. dire che effettivamente le persone di un certo tipo sono più inclini alla violenza a prescindere da dove vivono è pericoloso..
la verità è fastidiosa quando non segue la dialettica della politica di strada..
servono dei cattivi sicuri (gli Israeliani o gli Americani se possibile) e delle persone innocenti e fragili (gli immigrati o le persone di colore se possibile)..
c'è una logica in tutto questo.. ma è una logica bizzarra.. vedi l'università che apre una moschea dentro alla struttura scolastica per permettere l'integrazione e il diritto di culto (immagino abbiano anche una chiesa cattolica, una protestante, un rabbino etc... giusto per il diritto di culto .. a scuola..)
è l'ipocrisia che è fastidiosa.. le IA, per ora, mangiano numeri.. basta cambiare i numeri e la verità cambia
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".