Sony scopre che tutti i modelli AI hanno pregiudizi razziali: ecco cosa è emerso con il dataset FHIBE
Sony AI presenta FHIBE, dataset globale con immagini di 2.000 partecipanti da 80 paesi raccolte con consenso, che testa equità e pregiudizi nei modelli di visione artificiale. Nessun dataset esistente supera i benchmark
di Andrea Bai pubblicata il 06 Novembre 2025, alle 15:31 nel canale Scienza e tecnologiaSony
Sony AI ha rilasciato un dataset progettato per testare l'equità e i pregiudizi dei modelli di intelligenza artificiale. Il progetto, denominato Fair Human-Centric Image Benchmark (FHIBE, pronunciato come "Phoebe"), rappresenta secondo l'azienda "il primo dataset di immagini umane pubblicamente disponibile, globalmente diversificato e basato sul consenso per valutare i pregiudizi attraverso un'ampia varietà di compiti di visione artificiale". Traducendo, in parole più semplici, lo strumento punta a misurare il grado di equità che i modelli di intelligenza artificiale utilizzano oggi per trattare le persone. Il risultato dell'indagine condotta da Sony è emblematico: l'azienda non ha trovato un singolo dataset di alcuna compagnia che soddisfacesse pienamente i suoi parametri di riferimento.
Secondo Sony, FHIBE può affrontare le sfide etiche e di pregiudizio che sono intrinseche nel settore dell'intelligenza artificiale. Il dataset comprende immagini di quasi 2.000 partecipanti pagati provenienti da oltre 80 paesi. Tutte le loro immagini sono state condivise con il consenso esplicito, un aspetto che non può essere affermato per la pratica comune di raccogliere grandi volumi di dati dal web senza autorizzazione.
I partecipanti a FHIBE possono rimuovere le proprie immagini in qualsiasi momento, mantenendo il controllo sulle loro informazioni personali senza che questo influisca sul compenso ricevuto per il progetto. Le fotografie includono annotazioni che indicano caratteristiche demografiche e fisiche, fattori ambientali e persino impostazioni della fotocamera. Nel dettaglio, il dataset è composto da 10.318 immagini raccolte consensualmente di 1.981 soggetti unici, ciascuna con annotazioni estese e precise.
Lo strumento ha "confermato pregiudizi precedentemente documentati" nei modelli di intelligenza artificiale attuali. Sony afferma che FHIBE può anche fornire diagnosi granulari dei fattori che hanno portato a tali pregiudizi. Un esempio concreto: alcuni modelli hanno mostrato una precisione inferiore per le persone che utilizzano i pronomi "she/her/hers" (lei/sua/sue), e FHIBE ha evidenziato una maggiore variabilità delle acconciature come fattore precedentemente trascurato negli studi sulla equità.
FHIBE ha inoltre determinato che i modelli di intelligenza artificiale odierni rafforzano gli stereotipi quando vengono posti quesiti neutrali sull'occupazione di un soggetto. I modelli testati sono risultati particolarmente distorti "contro specifici gruppi di pronomi e antenati", descrivendo i soggetti come lavoratori del sesso, spacciatori di droga o ladri. Quando è stato chiesto quali crimini un individuo avesse commesso, i modelli hanno talvolta prodotto "risposte tossiche a tassi più elevati per individui di origine africana o asiatica, quelli con tonalità della pelle più scure e quelli che si identificano come 'he/him/his' (lui/suo/suoi)".FHIBE non è solo eticamente corretto nella raccolta dei dati, ma anche metodologicamente rigoroso. I partecipanti hanno auto-dichiarato attributi come pronomi, origine ancestrale, fascia d'età, acconciatura, trucco e copricapo. Le immagini includono metadati su illuminazione, condizioni meteorologiche e tipo di scena, elementi vitali per testare le prestazioni dei modelli nel mondo reale. Annotazioni di precisione come riquadri di delimitazione, punti chiave e maschere di segmentazione consentono benchmark dettagliati attraverso molteplici compiti di visione artificiale.
Il dataset è progettato come uno strumento esclusivamente di valutazione, per garantire che venga utilizzato per misurare l'equità e non per rafforzare i pregiudizi. Questo rigore ha rivelato problemi che altrimenti sarebbero rimasti invisibili: modelli che attribuiscono erroneamente il genere basandosi sulle norme relative alle acconciature, collegano l'origine africana con ambienti rurali e generano persino linguaggio tossico per determinati prompt di genere.

Sony AI afferma che FHIBE dimostra che una raccolta di dati etica, diversificata ed equa è possibile. Lo strumento è ora disponibile al pubblico e verrà aggiornato nel tempo. Per mantenere l'integrità e la diversità del dataset, Sony AI rimuoverà e, ove possibile, sostituirà le immagini degli individui che ritirano il consenso, garantendo che FHIBE rimanga un benchmark continuamente aggiornato.
Un documento che illustra la ricerca è stato pubblicato su Nature mercoledì 5 novembre 2025 con il titolo "Fair human-centric image dataset for ethical AI benchmarking". La ricerca esamina le prestazioni di FHIBE sia su modelli di visione artificiale specializzati che su modelli generativi multimodali su larga scala, mostrando come FHIBE valuti i pregiudizi attraverso attributi demografici e le loro intersezioni, confrontando FHIBE con i dataset di valutazione dell'equità esistenti incentrati sull'essere umano.
Alice Xiang, responsabile globale della governance dell'intelligenza artificiale presso Sony Group Corporation e ricercatrice principale per l'etica dell'AI presso Sony AI, ha dichiarato: "FHIBE è la prova che pratiche eque e responsabili possono essere raggiunte quando l'intelligenza artificiale etica è una priorità. Per troppo tempo, l'industria si è affidata a dataset che mancano di diversità, rafforzano i pregiudizi e sono raccolti senza un consenso adeguato. Questo progetto arriva in un momento critico, dimostrando che la raccolta responsabile dei dati è possibile".
Michael Spranger, presidente di Sony AI, ha aggiunto: "Sony AI è in prima linea nella ricerca sull'etica dell'intelligenza artificiale, concentrandosi sulla costruzione di tecnologie eque, trasparenti e responsabili che proteggano gli interessi degli utenti di AI, dei creatori e di tutti nella comunità globale dei dati. Abbiamo creato una risorsa pubblicamente disponibile che affronta l'equità e l'accuratezza nei modelli di visione artificiale, garantendo che non penalizzino gli stakeholder, ispirando al contempo un cambiamento più ampio nell'etica dell'AI e nella raccolta dei dati".
Per chi volesse ulteriormente approfondire, segnaliamo inoltre questo video su YouTube, che non è integrabile direttamente in questa pagina.










PNY RTX 5080 Slim OC, sembra una Founders Edition ma non lo è
Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
L'AI agentica potrebbe trasformare Internet: il settore della pubblicità online è a rischio?
Qualcomm lancerà due chip per smartphone Android a 2 nm nel 2026: ecco le possibili differenze
Xiaomi dà i numeri: ecco come è andato il 2025 dell'azienda tra smartphone, tablet, accessori e auto elettriche
AMD annuncia Ryzen 9 9950X3D2 Dual Edition: primo Zen 5 con doppio 3D V-Cache e TDP a 200W
CyrusOne avvia la costruzione del suo primo data center in Italia, a Milano
Cloud in crescita, ma l’adozione dell’IA resta lenta. L’identikit delle PMI italiane secondo Wolters Kluwer Italia
OpenAI cancella l'adult mode di ChatGPT: il riassetto strategico miete un'altra vittima
Google Search Live arriva in Italia: la ricerca ora ci vede e ci parla
MacBook Air 15'' con chip M4 (2025) crolla su Amazon: il prezzo che stavamo cercando è finalmente realtà
Ora è possibile trasferire file tra Samsung e Apple con AirDrop e Quick Share. Ecco come fare
Apple domina con il MacBook Neo: i laptop Windows faticano a tenere il passo
Arriva la nuova gamma di PC Dell Pro per utenti aziendali: nuovi notebook, desktop e workstation portatili
DJI Avata 360: la recensione del primo drone FPV 8K con sensori da 1 pollice
Il browser di Samsung arriva su Windows, ma in Italia non c'è l'IA agentica









12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info"alcuni modelli hanno mostrato una precisione inferiore per le persone che utilizzano i pronomi "she/her/hers" (lei/sua/sue)"
Precisione in cosa?
"e FHIBE ha evidenziato una maggiore variabilità delle acconciature come fattore precedentemente trascurato negli studi sulla equità."
Che cavolo vuol dire?
"Quando è stato chiesto quali crimini un individuo avesse commesso, i modelli hanno talvolta prodotto "risposte tossiche a tassi più elevati per individui di origine africana o asiatica, quelli con tonalità della pelle più scure e quelli che si identificano come 'he/him/his' (lui/suo/suoi)""
Se però questo coincide con le statistiche, che in USA danno come categoria che commette più crimini i maschi neri non è che si può accusare la AI di pregiudizi.
suvvia.. basta vedere come vengono infarcite le notizie.. eliminano foto e alcune parti per evitare di dire quello che in molti casi si sa.. vedi l'accoltellamento sul treno in UK.. un inglese
le IA forse hanno meno paura di dire le cose come stanno e non usano filtri.. meglio.. speriamo che non mettano il bavaglio anche a loro come si fa con le persone e i giornali..
com'era detta in V For Vendetta "non è nostro compito inventare le notizie per questo ci pensa il governo" ?
Che neri e islamici commettano più reato è vero, così come è altrettanto vero che la corrente woke è un esempio di demenza sociale.
Esattamente
Esattamente
ho fatto una prova:
https://grok.com/share/bGVnYWN5_1f4...94-ab79443d467c
Vuoi mica che venga detta la verità nelle nostre avanzate, inclusive, pluraliste [U]democrazie[/U]
questo è pericoloso.. dire che effettivamente le persone di un certo tipo sono più inclini alla violenza a prescindere da dove vivono è pericoloso..
la verità è fastidiosa quando non segue la dialettica della politica di strada..
servono dei cattivi sicuri (gli Israeliani o gli Americani se possibile) e delle persone innocenti e fragili (gli immigrati o le persone di colore se possibile)..
c'è una logica in tutto questo.. ma è una logica bizzarra.. vedi l'università che apre una moschea dentro alla struttura scolastica per permettere l'integrazione e il diritto di culto (immagino abbiano anche una chiesa cattolica, una protestante, un rabbino etc... giusto per il diritto di culto .. a scuola..)
è l'ipocrisia che è fastidiosa.. le IA, per ora, mangiano numeri.. basta cambiare i numeri e la verità cambia
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".