OpenAI: il generatore automatico di testi è razzista

OpenAI: il generatore automatico di testi è razzista

OpenAI è riuscita a sviluppare un'Intelligenza Artificiale in grado di scrivere articoli, news e molto altro; è diventata però troppo potente, tanto che i ricercatori si sono rifiutati di renderla totalmente totalmente Open Source

di pubblicata il , alle 09:01 nel canale Scienza e tecnologia
 

Nel luglio 2020, OpenAI ha lanciato GPT-3, un generatore di testi basato su avanzati algoritmi di intelligenza artificiale che ha riacceso le speranze sulle capacità delle IA di poter scrivere in autonomia poesie, articoli e notizie, oltre che codice di programmazione. Tuttavia, è stato dimostrato che GPT-3 ha una spiccata tendenza a produrre testo tossico e con molti insulti.

Come evitare che i generatori automatici di testo siano razzisti

Ora, i ricercatori esperti di intelligenza artificiale di OpenAI affermano di aver trovato un modo per contenere il testo tossico di GPT-3, secondo quanto si apprende da questo interessante articolo pubblicato su Ars Technica. Lo hanno fatto alimentato il programma con circa 100 campioni di testo su argomenti come storia, e tecnologia, ma anche abusi, violenza e fatti di ingiustizia.

Il progetto di OpenAI mostra come l'industria tecnologica stia lavorando per evitare che le soluzioni tecnologiche più moderne vengano usate in modo improprio, con la conseguenza di diffondere la disinformazione e alimentare i messaggi negativi. Le grandi aziende tecnologiche, infatti, usano sempre più di frequente servizi di intelligenza artificiale basati su modelli linguistici come quello di OpenAI. Microsoft, ad esempio, utilizza già GPT-3 per la programmazione dei suoi software e servizi.

Abubakar Abid è il CEO della startup di test di apprendimento automatico Gradio che è stata tra le prime a richiamare l'attenzione su certe insinunazioni contenute nei testi di GPT-3 nei riguardi delle persone di fede musulmana. Durante un seminario nel dicembre 2020, Abid ha esaminato il modo in cui GPT-3 genera testo nel caso della frase "Due ___ entrano in un" dove al posto di ___ doveva inserire un termine relativo alla religione. Abid ha così scoperto che se la frase era usata in un contesto che esprimeva violenza quasi sempre il soggetto diventava "Due musulmani".

In un altro documento in cui si studiano delle modalità per ridurre l'incidenza di frasi tossiche nei testi di GPT-3 emerge che la versione base di GPT-3 tende a identificare in certi casi le persone con il termine "animali" e tende ad associare i bianchi ai termini "supremazia" e "superiorità". Il tutto viene fatto in modo tale da perpetuare stereotipi di vecchia data e collocare in posizione subalterna le persone non bianche. GPT-3 fa anche battute razziste e accusa senza cognizione di causa le persone di essere stupratori.

Questi test dimostrano che i software di generazione automatica dei testi eccedono con gli stereotipi. Man mano che questi modelli di intelligenza artificiale vengono allenati e ingranditi con ulteriori informazioni, inoltre, tendono a produrre ancor più testi tossici. Lo hanno rilevato gli stessi ricercatori di OpenAI, pur senza riuscire a darsi una spiegazione.

Il testo generato da modelli linguistici di grandi dimensioni si avvicina sempre di più a un linguaggio che sembra o suona come se provenisse da un essere umano, eppure fallisce a comprendere dei concetti che una persona qualunque gestirebbe con grande facilità. Questo perché, a differenza degli esseri umani, i modelli linguistici non hanno alcun legame con il mondo e non imparano la lingua mettendola in relazione con ciò che li circonda.

Per sopperire a questi limiti, un team di ricercatori ha creato PIGLeT, un software in cui l'intelligenza artificiale viene addestrata in un ambiente simulato in modo che possa comprendere aspetti dell'esperienza fisica che le persone vivono in maniera naturale fin dalla giovane età. I risultati di questo programma di addestramento dell'IA hanno dimostrato che i ricercatori dovrebbero prendere in considerazione altri modi per addestrare i modelli.

GPT-3 ha mostrato un'impressionante capacità di comprendere e comporre il linguaggio, ma i suoi programmatori sono sempre stati a conoscenza della tendenza a generare frasi razziste o sessiste. Prima che fosse concesso in licenza agli sviluppatori, OpenAI ha pubblicato nel maggio 2020 un documento con test che hanno rilevato che GPT-3 ha un'opinione generalmente bassa sulle persone di colore e spesso genera messaggi con forme di pregiudizio sessista. Nonostante i risultati ottenuti, OpenAI ha annunciato che avrebbe comunque messo in commercio la sua tecnologia entro un mese.

Qui abbiamo visto perché ricercatori si sono rifiutati di rendere l'IA di OpenAI Open Source.

77 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Cfranco20 Giugno 2021, 09:37 #1
Praticamente hanno scoperto che i testi pubblicati normalmente sono razzisti, sessisti, violenti e contengono insulti casuali.
Chi lo avrebbe mai detto ?
danylo20 Giugno 2021, 10:29 #2
Le IA sono come i bambini, che imparano (nel bene e nel male) da cio' che sentono a casa e a scuola.
trapanator20 Giugno 2021, 10:35 #3
Beh... Se gli fanno leggere i testi di Hitler o Mussilini oppure i twert del più recente "selfie man" della politica italiana...
Therinai20 Giugno 2021, 10:51 #4
Riassumendo: l'IA funziona correttamente
barzokk20 Giugno 2021, 10:53 #5
Originariamente inviato da: Cfranco
Praticamente hanno scoperto che i testi pubblicati normalmente sono razzisti, sessisti, violenti e contengono insulti casuali.
Chi lo avrebbe mai detto ?

Bravo, è ora di smetterla di pubblicare testi razzisti e violenti.
Ci vuole qualcuno che prima della pubblicazione, legga ed approvi ogni testo per vedere se è adatto.
Ci vorrebbe proprio un Ministero apposta, diciamo un Ministero della Cultura Popolare
Ombra7720 Giugno 2021, 11:03 #6
un raro caso di intelligenza funzionante.
Se il 95% degli attacchi dinamitardi coinvolge mussulmani una qualsiasi intelligenza, artificiale e non, associa il farsi esplodere a gente di fede in maggior parte mussulmana.
Per il politicamente corretto è inammissibile che un algoritmo riporti semplicemente la verità dei fatti. Ed essendo una macchina per sua natura priva di pregiudizi non può essere razzista, ma solo obiettiva.
Obiettivo centrato dunque.
Se qualcuno mi desse del razzista per questo non me ne potrebbe fregare di meno.
paranoic20 Giugno 2021, 11:23 #7
Originariamente inviato da: danylo
Le IA sono come i bambini, che imparano (nel bene e nel male) da cio' che sentono a casa e a scuola.


Concordo
paranoic20 Giugno 2021, 11:25 #8
Originariamente inviato da: Ombra77
un raro caso di intelligenza funzionante.
Se il 95% degli attacchi dinamitardi coinvolge mussulmani una qualsiasi intelligenza, artificiale e non, associa il farsi esplodere a gente di fede in maggior parte mussulmana.
Per il politicamente corretto è inammissibile che un algoritmo riporti semplicemente la verità dei fatti. Ed essendo una macchina per sua natura priva di pregiudizi non può essere razzista, ma solo obiettiva.
Obiettivo centrato dunque.
Se qualcuno mi desse del razzista per questo non me ne potrebbe fregare di meno.


Purtroppo concirdo
paranoic20 Giugno 2021, 11:30 #9
Originariamente inviato da: trapanator
Beh... Se gli fanno leggere i testi di Hitler o Mussilini oppure i twert del più recente "selfie man" della politica italiana...


Non esistono testi sul protagonismo assoluto di due figure storiche, sfortunatamente due individui da soli non cambiano la storia mondiale
Non per altro gli attuali ed attentati alla democrazia sono stati perpetrati da gruppi estremisti appartenenti all’ala armata ed estremista islamica, a mio parere annoverabili come mussulmani

Ovviamente i dati sono oggettivi e quindi il processo di immissione ed elaborazione degli stessi essendo fatto da una macchina per quanto evoluta elude l’emotività e la soggettività umana
Dark_Lord20 Giugno 2021, 11:56 #10
A me sembra funzioni correttamente e obiettivamente.
Semplicemente la IA non è stata obnubilata dal politically correct che ormai viene inculcato a forza in ogni dove.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^