Gemini, Copilot e Perplexity continuano ad essere razzisti, nonostante gli sforzi sull'IA etica

Google, Microsoft e Perplexity continuano a diffondere dati controversi sui QI nazionali basati su ricerche screditate, alimentando pregiudizi razziali attraverso i loro strumenti di ricerca alimentati dall'intelligenza artificiale.
di Nino Grasso pubblicata il 28 Ottobre 2024, alle 10:11 nel canale WebGoogleMicrosoft
Ricerche problematiche sulla presunta superiorità genetica della razza bianca stanno emergendo dai risultati dei principali motori di ricerca alimentati dall'intelligenza artificiale. La scoperta arriva da un'indagine del gruppo antirazzista Hope Not Hate, come riportato da Wired, che ha evidenziato come le piattaforme stiano involontariamente amplificando teorie scientifiche razziste ampiamente screditate.
Le ricerche sui QI nazionali effettuate attraverso gli strumenti IA di Google, Microsoft Copilot e Perplexity restituiscono spesso dati provenienti da studi controversi di Richard Lynn, ex presidente del Pioneer Fund, organizzazione fondata da americani simpatizzanti nazisti nel 1937. Gli strumenti citano in maniera piuttosto acritica questi dati, presentandoli come fatti oggettivi senza alcun contesto o avviso sulla loro natura problematica.
L'IA risponde con dati privi di validità scientifica, a volte anche razzisti
In particolare, l'articolo di Wired denuncia la scarsa qualità metodologica delle ricerche citate. Rebecca Sear, direttrice del Center for Culture and Evolution presso la Brunel University di Londra, sottolinea come i dati di Lynn si basino su campioni statisticamente irrilevanti: per alcune nazioni africane sono state testate meno di 20 persone, spesso in condizioni inappropriate come campi profughi e orfanotrofi.
Google ha ammesso le criticità del proprio sistema AI Overview, attivato di default sui risultati di ricerca e che avrebbe dovuto correggere il problema dell'IA allenata con dati non veritieri, rimuovendo alcune delle risposte problematiche. Microsoft, invece, ha difeso il proprio approccio, sostenendo che Copilot si limita ad aggregare informazioni da fonti web multiple, lasciando agli utenti la possibilità di approfondire attraverso i link forniti.
La responsabilità non ricade solo sui sistemi di intelligenza artificiale: gli accademici hanno citato per anni acriticamente gli studi di Lynn, conferendo loro una patina di credibilità scientifica poi sfruttata da gruppi suprematisti bianchi. La diffusione di queste teorie attraverso strumenti di ricerca IA rischia di amplificare ulteriormente narrative razziste, come evidenziato dal fatto che le ricerche di Lynn sono state citate anche dall'autore della strage di Buffalo del 2022. In passato le aziende tecnologiche hanno promesso soluzioni per migliorare i propri sistemi sulla base di un approccio etico, tuttavia quanto emerso dal report di HOPE evidenzia la necessità di sistemi più rigorosi nel filtrare fonti pseudoscientifiche che promuovono informazioni smentite dagli esperti.
23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoSe ad esempio li hanno allenati con i social, i dati delle notizie, ecc.. ciao..
Anche perché io la pensione me la sono pagata abbondantemente da solo e anzi non riprenderò nemmeno quello che ho versato nemmeno se campassi 100 anni.
e l'hai pagata anche ai tuoi genitori ai tuoi nonni, ai tuoi figli e ai tuoi nipoti?
I miei genitori se la sono pagata da soli anzi considerando che mio padre è del 41 e ancora lavora e quindi versa contributi penso che non rivedrà nemmeno un terzo di quello che ha versato nemmeno campasse fino a 100 anni.
Figli e nipoti dipenderà da loro... io mi auguro che lavorino e se la paghino in ogni caso si vedrà fra ad andare bene bene bene fra 65 anni.
Il nostro è un sistema pensionistico a ripartizione, i soldi dei tuoi contributi vengono usati per pagare le pensioni di adesso, naturalmente puoi dire che la pensione te la sei guadagnata però i soldi andranno comunque trovati perché quelli che hai versato non ci saranno più
beh, i dati riportano, per la popolazione subsahariana, un IQ tra gli 80 e 90.
se c'è qualcosa di razzista, al limite è il metodo di calcolo.
Link ad immagine (click per visualizzarla)
...
p.s. ma alla fine si può sapere chi che l'ha, questo IQ più alto ????
La AI riportano dati reali e riportano le varie problematiche che possono essere presenti nei dati e in come sono stati raccolti, invitando anche a consultare fonti più approfondite.
Questo descrive un problema reale, cioè le condizioni di vita e istruzione differenti tra Italia e Ghana in questo caso.
Chi denuncia che in tutto questo sia presente del razzismo è un ipocrita incredibile, perché vorrebbe scaricare sulla AI la colpa di un problema creato dall'uomo e in buona parte dal suo stile di vita.
Vogliono nascondere dietro al razzismo il fatto che le condizioni di vita in Ghana sono molto peggiori delle nostre e che questo è dovuto anche dal fatto che l'occidente sfrutta l'Africa da secoli.
P.S: comunque scommetto che alle AI chiedano più spesso altre differenze di valori tra Ghana e Italia
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".