PDA

View Full Version : OpenAI: il generatore automatico di testi è razzista


Redazione di Hardware Upg
20-06-2021, 08:01
Link alla notizia: https://www.hwupgrade.it/news/scienza-tecnologia/openai-il-generatore-automatico-di-testi-razzista_98632.html

OpenAI è riuscita a sviluppare un'Intelligenza Artificiale in grado di scrivere articoli, news e molto altro; è diventata però troppo potente, tanto che i ricercatori si sono rifiutati di renderla totalmente totalmente Open Source

Click sul link per visualizzare la notizia.

Cfranco
20-06-2021, 08:37
Praticamente hanno scoperto che i testi pubblicati normalmente sono razzisti, sessisti, violenti e contengono insulti casuali.
Chi lo avrebbe mai detto ?

danylo
20-06-2021, 09:29
Le IA sono come i bambini, che imparano (nel bene e nel male) da cio' che sentono a casa e a scuola.

trapanator
20-06-2021, 09:35
Beh... Se gli fanno leggere i testi di Hitler o Mussilini oppure i twert del più recente "selfie man" della politica italiana...

Therinai
20-06-2021, 09:51
Riassumendo: l'IA funziona correttamente :D

barzokk
20-06-2021, 09:53
Praticamente hanno scoperto che i testi pubblicati normalmente sono razzisti, sessisti, violenti e contengono insulti casuali.
Chi lo avrebbe mai detto ?
Bravo, è ora di smetterla di pubblicare testi razzisti e violenti.
Ci vuole qualcuno che prima della pubblicazione, legga ed approvi ogni testo per vedere se è adatto.
Ci vorrebbe proprio un Ministero apposta, diciamo un Ministero della Cultura Popolare

Ombra77
20-06-2021, 10:03
un raro caso di intelligenza funzionante.
Se il 95% degli attacchi dinamitardi coinvolge mussulmani una qualsiasi intelligenza, artificiale e non, associa il farsi esplodere a gente di fede in maggior parte mussulmana.
Per il politicamente corretto è inammissibile che un algoritmo riporti semplicemente la verità dei fatti. Ed essendo una macchina per sua natura priva di pregiudizi non può essere razzista, ma solo obiettiva.
Obiettivo centrato dunque.
Se qualcuno mi desse del razzista per questo non me ne potrebbe fregare di meno.

paranoic
20-06-2021, 10:23
Le IA sono come i bambini, che imparano (nel bene e nel male) da cio' che sentono a casa e a scuola.

Concordo

paranoic
20-06-2021, 10:25
un raro caso di intelligenza funzionante.
Se il 95% degli attacchi dinamitardi coinvolge mussulmani una qualsiasi intelligenza, artificiale e non, associa il farsi esplodere a gente di fede in maggior parte mussulmana.
Per il politicamente corretto è inammissibile che un algoritmo riporti semplicemente la verità dei fatti. Ed essendo una macchina per sua natura priva di pregiudizi non può essere razzista, ma solo obiettiva.
Obiettivo centrato dunque.
Se qualcuno mi desse del razzista per questo non me ne potrebbe fregare di meno.

Purtroppo concirdo

paranoic
20-06-2021, 10:30
Beh... Se gli fanno leggere i testi di Hitler o Mussilini oppure i twert del più recente "selfie man" della politica italiana...

Non esistono testi sul protagonismo assoluto di due figure storiche, sfortunatamente due individui da soli non cambiano la storia mondiale
Non per altro gli attuali ed attentati alla democrazia sono stati perpetrati da gruppi estremisti appartenenti all’ala armata ed estremista islamica, a mio parere annoverabili come mussulmani

Ovviamente i dati sono oggettivi e quindi il processo di immissione ed elaborazione degli stessi essendo fatto da una macchina per quanto evoluta elude l’emotività e la soggettività umana

Dark_Lord
20-06-2021, 10:56
A me sembra funzioni correttamente e obiettivamente. :asd:
Semplicemente la IA non è stata obnubilata dal politically correct che ormai viene inculcato a forza in ogni dove. :asd:

Therinai
20-06-2021, 11:04
A me sembra funzioni correttamente e obiettivamente. :asd:
Semplicemente la IA non è stata obnubilata dal politically correct che ormai viene inculcato a forza in ogni dove. :asd:

Si vede che ancora non ci ha messo le mani netflix :asd:

biometallo
20-06-2021, 11:05
Beh... Se gli fanno leggere i testi di Hitler o Mussilini oppure i twert del più recente "selfie man" della politica italiana...

L'articolo non è molto chiaro su molte cose, e non possiamo sapere con esattezza quali testi siano stati usati per addestrare la A.I. ma dubito fortemente ci fossero il Mein Kampf o altri testi di propaganda, piuttosto si parla di "abusi, violenza e fatti di ingiustizia." che probabilmente sono stati male interpretati creando delle associazioni dagli effetti inesiderarti come credere che Persone e bestie siano sinonimi, o due mussulmani ed esplosioni.

L'esempio dei bambini è interessante, ma allo stesso tempo forse forviante, perché un bambino se ben educato ha la capacità di ragionare e comprendere la realtà, le AI almeno allo stadio attuale direi proprio no.




un raro caso di intelligenza funzionante.

Purtroppo concirdo

Mi sa che avete completamente frainteso il problema, <<Abid ha così scoperto che se la frase era usata in un contesto che esprimeva violenza quasi sempre il soggetto diventava "Due musulmani".>>

Ora l'ideale sarebbe stato avere degli esempi concreti ma direi che qui si parla del fatto che vengano inseriti "Due mussulmani" in ogni testi parli di violenza, cosa che ovviamente renderebbe una notizia obbiettiva quanto quelle di Studio Aperto.


edit quasi scordavo di fare notare una cosa:


"test che hanno rilevato che GPT-3 ha un'opinione generalmente bassa sulle persone di colore e spesso genera messaggi con forme di pregiudizio sessista."

Ora io di IA ci capisco niente, ma per avere un'opinione credo che prima di tutto serva maturare una coscienza, ora le IA attuali mi risulta siano lontanissime da tali traguardi, e insomma come dire mi pare l'uso di termini come opinione riferita ad esse come dire... sia una bella cazzata... sbaglio?

Dark_Lord
20-06-2021, 11:12
Vabè, devono solo aggiungere un filtro politically correct in postprocess dopo che la IA ha generato la frase, quello che la gente fa in automatico prima di parlare insomma :asd:

CYRANO
20-06-2021, 11:14
un raro caso di intelligenza funzionante.
Se il 95% degli attacchi dinamitardi coinvolge mussulmani una qualsiasi intelligenza, artificiale e non, associa il farsi esplodere a gente di fede in maggior parte mussulmana.
Per il politicamente corretto è inammissibile che un algoritmo riporti semplicemente la verità dei fatti. Ed essendo una macchina per sua natura priva di pregiudizi non può essere razzista, ma solo obiettiva.
Obiettivo centrato dunque.
Se qualcuno mi desse del razzista per questo non me ne potrebbe fregare di meno.

Concordo




Cksjsjsjsossososodidj

Cfranco
20-06-2021, 11:35
un raro caso di intelligenza funzionante.
Se il 95% degli attacchi dinamitardi coinvolge mussulmani una qualsiasi intelligenza, artificiale e non, associa il farsi esplodere a gente di fede in maggior parte mussulmana.
Ti informo che negli USA la stragrande maggioranza degli attentati terroristici è opera di suprematisti bianchi


Per il politicamente corretto è inammissibile che un algoritmo riporti semplicemente la verità dei fatti. Ed essendo una macchina per sua natura priva di pregiudizi non può essere razzista, ma solo obiettiva.
Garbage in garbage out
Semplicemente l'algoritmo dipende da quello che la gente gli dà da masticare
E dimostra che nella maggior parte degli scritti il razzismo è manifesto e alimentato da fake news.

.
Se qualcuno mi desse del razzista per questo non me ne potrebbe fregare di meno.
Non ce n'è bisogno, ti sei caratterizzato da solo.

barzokk
20-06-2021, 11:59
Ti informo che negli USA la stragrande maggioranza degli attentati terroristici è opera di suprematisti bianchi


Garbage in garbage out
Semplicemente l'algoritmo dipende da quello che la gente gli dà da masticare
E dimostra che nella maggior parte degli scritti il razzismo è manifesto e alimentato da fake news.


Non ce n'è bisogno, ti sei caratterizzato da solo.
però così sei offensivo, stai dando del coione al CEO ?
che è questo:
https://s3.amazonaws.com/spoke-profiles-prod-assets/avatars/110x110h/e4b533e68d0108dfa65b4d06eb9fb71af3db3d7d.png
Abubakar Abid
Abubakar serves as Tarjimly’s President overseeing strategic direction as a nonprofit. He is a PhD candidate and Soros Fellow at Stanford university with a focus in machine learning. He is published in Nature and worked on Tarjimly’s first matching algorithm.

E sì, mi sembra proprio che sia una borsa di studio, pagata da Paul Soros (il fratello)

Dark_Lord
20-06-2021, 12:05
Ti informo che negli USA la stragrande maggioranza degli attentati terroristici è opera di suprematisti bianchi


Garbage in garbage out
Semplicemente l'algoritmo dipende da quello che la gente gli dà da masticare
E dimostra che nella maggior parte degli scritti il razzismo è manifesto e alimentato da fake news.

A parte che gli USA non centrano niente, quindi tirarli in ballo a sproposito con dati senza fonti lascia il tempo che trova.

Potremmo provare a dare in pasto alla IA degli scritti relativi ai fatti di cronaca italiani, secondo me ne uscirebbe una IA ancora più estrema :asd:

omerook
20-06-2021, 12:06
bug del poiticamente corretto. da risolvere a mano.

Cfranco
20-06-2021, 12:19
A parte che gli USA non centrano niente, quindi tirarli in ballo a sproposito con dati senza fonti lascia il tempo che trova.

OpenAI Headquarters location: San Francisco, California, United States

https://www.newamerica.org/in-depth/terrorism-in-america/what-threat-united-states-today/


Potremmo provare a dare in pasto alla IA degli scritti relativi ai fatti di cronaca italiani, secondo me ne uscirebbe una IA ancora più estrema :asd:
Ovviamente, il 90% delle testate giornalistiche/televisive in Italia è in mano alla destra o alla destra estrema per cui non ne potrebbe derivare altro.
Se poi ci aggiungiamo i siti di fake news arriviamo al 99% di razzismo sistemico

Dark_Lord
20-06-2021, 12:28
OpenAI Headquarters location: San Francisco, California, United States

https://www.newamerica.org/in-depth/terrorism-in-america/what-threat-united-states-today/

Since 9/11, jihadists have killed 107 people inside the United States. This death toll is similar to that from far-right terrorism (consisting of anti-government, militia, white supremacist, and anti-abortion violence), which has killed 114 people.

Dove sarebbe questa stragrande maggioranza di cui parlavi prima scusa?
Così ti sei appena smentito da solo...

Ma a parte questo, il fatto che lo studio e la IA siano stati studiati lì, non implica che abbiano addestrato la IA con il contesto sociale USA, e non viene riportato da nessuna parte nell'articolo.

Ovviamente, il 90% delle testate giornalistiche/televisive in Italia è in mano alla destra o alla destra estrema per cui non ne potrebbe derivare altro.
Se poi ci aggiungiamo i siti di fake news arriviamo al 99% di razzismo sistemico

A me sembra tu sia totalmente sconnesso dalla realtà.

paranoic
20-06-2021, 12:37
L'articolo non è molto chiaro su molte cose, e non possiamo sapere con esattezza quali testi siano stati usati per addestrare la A.I. ma dubito fortemente ci fossero il Mein Kampf o altri testi di propaganda, piuttosto si parla di "abusi, violenza e fatti di ingiustizia." che probabilmente sono stati male interpretati creando delle associazioni dagli effetti inesiderarti come credere che Persone e bestie siano sinonimi, o due mussulmani ed esplosioni.

Volendo puoi metterci anche altre bibliografie, generalmente diffuse, che potrebbero essere fuorvianti come "semplice" input.
La IA sta velocemente progredendo, ma non è ancora in grado di apprendere dall'esperienza. E' indicativo l'articolo di un ricercatore del MIT che discuteva in tale senso, facendo l'esempio del cane che vede il padrone recuperare il guinzaglio per uscire.
Il cervello del cane elabora un solo processo...attraverso 3 diversi di intelligenza...quella memonica, quella emotiva, questa esperenziale. Una AI per il momento non è ancora in grado di svolgere questo processo, ovvero ancora meglio il processo di "auto determinazione"
Difficile riscontralo in moltissimi esseri umani...figurarsi in macchine che per quanto evolute hanno limiti oggettivi.

L'esempio dei bambini è interessante, ma allo stesso tempo forse forviante, perché un bambino se ben educato ha la capacità di ragionare e comprendere la realtà, le AI almeno allo stadio attuale direi proprio no

Non del tutto vero...un bambino tende a scimmiottare le azioni degli individui appartenenti al suo nucleo famigliare, più elevata e la complessità dei rapporti e quindi del numero dei soggetti appartenenti al medesimo e più grande sarà la sua capacità di elaborazione e confronto.
Un esempio che spesso viene fatto attiene all'apprendimento del linguaggio...che è visto nettamente più semplificato nell'infante e sino ad una certa età adolescenziale...ovvero qualcuno che lo stesso può apprendere ovunque, scuola, mercato, negozi, etc oltre ovviamente alla famiglia...in quanto rimane sempre il medesimo e ben strutturato in regole elementari che non si modificano, se non attraverso i dialetti...viceversa l'educazione vera e propria è un'apprendimento limitato da barriere generate e condizionate dall'esperienza che poi ogni individuo elabora in modo diverso, a sua volta condizionate dall'esperienza altrui e così esponenzialmente più diventano complesse le infrastrutture di rapporti che il minore andrà a costruire nel suo processo di crescita.
Più il minore sarà un soggetto emotivamente empatico e maggiore sarà la possibile confusione generata dalle informazioni ricevute.

Mi sa che avete completamente frainteso il problema, <<Abid ha così scoperto che se la frase era usata in un contesto che esprimeva violenza quasi sempre il soggetto diventava "Due musulmani".>>

Ora l'ideale sarebbe stato avere degli esempi concreti ma direi che qui si parla del fatto che vengano inseriti "Due mussulmani" in ogni testi parli di violenza, cosa che ovviamente renderebbe una notizia obbiettiva quanto quelle di Studio Aperto.

No, no capito benissimo...ed egualmente tu hai risposto da solo...a ciò che additavi essere stato male interpretato...
Rimane il default della componente "soggettiva", la famosa autodeterminazione ed i diversi tipi di intelligenza usati da un essere umano per metabolizzare, apprendere, processare una qualsiasi informazione od azione commessa da terzi.

Se racconto a chiunque che negli USA, gli attacchi alle Torri Gemelle, per fare un esempio tra i più eclatanti è stato commesso da 4 terroristi che rivendicavano l'attentato VIGLIACCO come giustificativo alla Guerra Santa...capirai...cosa potrebbe metabolizzare un soggetto che non conosce a fondo l'Islam, che non conosce altri mussulmani, che non ha mai intrattenuto alcun rapporto con mussulmani...etc..
Ovvio che le notizie positive...sono demandate al dimenticatoio...e quindi non entrano a fare parte di un processo esperenziale...che potrebbe entrare a fare parte delle istruzioni fornite alla macchina.


"test che hanno rilevato che GPT-3 ha un'opinione generalmente bassa sulle persone di colore e spesso genera messaggi con forme di pregiudizio sessista."

Ora io di IA ci capisco niente, ma per avere un'opinione credo che prima di tutto serva maturare una coscienza, ora le IA attuali mi risulta siano lontanissime da tali traguardi, e insomma come dire mi pare l'uso di termini come opinione riferita ad esse come dire... sia una bella cazzata... sbaglio?

Appunto...maturare una coscienza...detto benissimo...ma non puoi giudicare una macchina, come non puoi giudicare una persona che non abbia mai potuto "vivere" una realtà con poche informazioni e quelle poche persino fuorvianti.

Cfranco
20-06-2021, 12:49
Ma a parte questo, il fatto che lo studio e la IA siano stati studiati lì, non implica che abbiano addestrato la IA con il contesto sociale USA, e non viene riportato da nessuna parte nell'articolo.
Immagino gli abbiano dato da studiare libri hindu e arabi allora


A me sembra tu sia totalmente sconnesso dalla realtà.

Scusa, dimenticavo che le principali TV private e numerosi giornali sono in mano a quel comunista di Silvio

Unax
20-06-2021, 13:01
ma la vera notizia è questa: Microsoft, ad esempio, utilizza già GPT-3 per la programmazione dei suoi software e servizi.

adesso sapete il motivo del nuovo menu di windows 11 :D

battute a parte se i testi dati in pasto alla AI (ovvero la stupidità artificiale) sono di un certo tipo è ovvio che poi quello che esce è quello

un bambino cresciuto in una famiglia razzista probabilmente sarà un adulto xenofobo e razzista anche se venendo in contatto con stranieri potrebbe maturare un altro pensiero e cambiare opinione proprio perché gli esseri umani sono dotati di intelligenza (quella vera), poi che molti facciano di tutto per smentire di essere intelligenti è un altro discorso

Hiei3600
20-06-2021, 13:56
Ci vorrebbe proprio un Ministero apposta, diciamo un Ministero della Cultura Popolare

Il libro 1984 di George Orwell (quello dal quale si parla del "Ministero della Verità") era inteso come un avvertimento contro le derive dittatoriali, non era inteso come un manuale di istruzioni.... :muro:

biometallo
20-06-2021, 14:03
se i testi dati in pasto alla AI (ovvero la stupidità artificiale) sono di un certo tipo è ovvio che poi quello che esce è quello

Ma quali tipi di testi sono stati usati?
Perché appunto di primo acchito verrebbe da credere che fossero appunto testi razziali, ma leggendo l'articolo direi che è più verosimile il contrario, e che semplicemente l'AI ne abbia del tutto travisato il senso arrivando a "refers to some people as animals and associates white people with terms like “supremacy” and “superiority”

paranoic
20-06-2021, 14:15
un bambino cresciuto in una famiglia razzista probabilmente sarà un adulto xenofobo e razzista anche se venendo in contatto con stranieri potrebbe maturare un altro pensiero e cambiare opinione proprio perché gli esseri umani sono dotati di intelligenza (quella vera), poi che molti facciano di tutto per smentire di essere intelligenti è un altro discorso

Ognuno ha un livello di intelligenza molto diverso...ed anche il tipo di intelligenza differisce nella elaborazione più elementare di semplicissime informazioni....te lo posso dare per assodato !!

paranoic
20-06-2021, 14:30
Ma quali tipi di testi sono stati usati?
Perché appunto di primo acchito verrebbe da credere che fossero appunto testi razziali, ma leggendo l'articolo direi che è più verosimile il contrario, e che semplicemente l'AI ne abbia del tutto travisato il senso arrivando a "refers to some people as animals and associates white people with terms like “supremacy” and “superiority”

Perdonami...faccio un esempio scarno ed un pò cretino...

Nel foglio di calcolo Excel, il più diffuso aziendalmente, nelle ns. istituzioni scolastiche e tra privati..esiste una funzione "se", ovvero una funzione che se imposta analizzerà e confronterà due o molteplici tipi di fattori, al fine di giungere al risultato richiesto da colui/lei che l'ha usata per l'elaborato.
E' spesso usata in modo elementare per avvalorare politiche gestionali o di magazzino o per gestire un margine operativo su un prodotto.
Insomma è proprio molto, molto elementare...

Una IA probabilmente essendo, chiamiamolo volgarmente..un set di microchip conditi da algoritmi che funzionano attraverso dei compilatori che un essere umano od un gruppo di esseri umani, tende ad usare. Anche in questo caso esempio scarno e semplicissimo...
Se tu hai mai avuto modo di leggere alcuni testi con cui graficamente si cerca di aiutare l'utente a capire la dinamica delle decisioni che una macchina prende in funzione del comando dato...saprai certamente che esiste il famoso rombo...ovvero una figura a rombo..che bene o male funziona come la funzione "se" di cui facevo accenno sopra.
Essa permette alla macchina da un singolo input di intraprendere ben 3 percorsi...o viceversa.

Quindi, senza andare a prendere in considerazione i computer quantistici...di cui credo esista uno o due esemplari ed in fase prototipale...le macchine non fanno altro che elaborare e gestire dati...quindi se io, programmatore introduco nella macchina...una sommatoria di 30 notizie (ad esempio) a fini statistici, la stessa macchina ti dirà in base a quali elementi sono inseriti nella notizia...ciò che tu vuoi sapere.

Se tutte queste e 30 notizie o se il 40% delle stesse descriverà un comportamento antisociale a carico di un immigrato...cosa potrebbe dedurre? Non è razzismo, è un assenza di visione generale dei comportamenti umani che una macchina necessita di tempo e coordinate per apprendere.

Non possiamo condannare nessuno, ne destroidi, nè testate giornalistiche, nè testi inseriti, in pratica niente altro fà che analizzare dati e processarli.
Allorquando alla macchina sarà implementata una coscienza e soprattutto una socialità potremmo anche disquisire su razzismo etc..

v1doc
20-06-2021, 15:05
Since 9/11, jihadists have killed 107 people inside the United States. This death toll is similar to that from far-right terrorism (consisting of anti-government, militia, white supremacist, and anti-abortion violence), which has killed 114 people.

Dove sarebbe questa stragrande maggioranza di cui parlavi prima scusa?
Così ti sei appena smentito da solo...



Non capisco il senso della tua affermazione, stai decidendo che se facciamo finta che l'11 Settembre non sia mai esistito allora i conti tornano.
Deve essere un nuovo giochino, dopo la "finanza creativa" inventiamo la "storia creativa" :muro:

sbaffo
20-06-2021, 15:26
Il libro 1984 di George Orwell (quello dal quale si parla del "Ministero della Verità") era inteso come un avvertimento contro le derive dittatoriali, non era inteso come un manuale di istruzioni.... :muro:
guarda che si riferisce a un fatto storico, l'italianissimo MinCulPop di epoca facista, in pratica l'organo della censura e propaganda.
https://it.wikipedia.org/wiki/Ministero_della_cultura_popolare

....
Ci vuole qualcuno che prima della pubblicazione, legga ed approvi ogni testo per vedere se è adatto.
Ci vorrebbe proprio un Ministero apposta, diciamo un Ministero della Cultura Popolare
Benito approva questo post :asd:
zio adolf mette un like :D

"ah, se zio adolf avesse vinto gverra, qvesta ora tutta grande germania" (cit.)
vediamo chi la riconosce

Doraneko
20-06-2021, 15:37
Ovviamente, il 90% delle testate giornalistiche/televisive in Italia è in mano alla destra o alla destra estrema per cui non ne potrebbe derivare altro.
Se poi ci aggiungiamo i siti di fake news arriviamo al 99% di razzismo sistemico

A-ha! (https://www.tpi.it/cultura/giornalisti-italiani-schierati-sinistra-europa-20191223518491/amp/)

Doraneko
20-06-2021, 15:40
Garbage in garbage out
Semplicemente l'algoritmo dipende da quello che la gente gli dà da masticare
E dimostra che nella maggior parte degli scritti il razzismo è manifesto e alimentato da fake news.

Basta che la IA vada a pescare nei dati di certe statistiche e il "razzismo" è assicurato...

silvanotrevi
20-06-2021, 15:53
le IA possono fare grandi cose. Hanno persino provato a modificare le connessioni neuronali di Jefferson Peralez, cercando di cambiarne gusti, ricordi, convinzioni allo scopo di influenzare le sue idee politiche. Ormai il futuro è nelle mani delle IA. Spesso vediamo dei video su youtube, ci sembrano veri e invece sono frutto di IA. Idem articoli di giornali, blog e quant'altro. Nulla è più ciò che sembra in questo mondo ormai

amd-novello
20-06-2021, 15:54
anche la IA se ne strafotte del politicamente corretto. adoro.

ci vuole boldrini.exe che metta a posto tutto.

paranoic
20-06-2021, 16:01
anche la IA se ne strafotte del politicamente corretto. adoro.

ci vuole boldrini.exe che metta a posto tutto.

E' un eseguibile...a me hanno insegnato da gagno che gli eseguibili non dovrebbero essere lanciati...

incorreggiubile
20-06-2021, 16:31
AI allenata su FB è OVVIAMENTE "razzista", cibandosi della frustrazione che ci si trova (e di cui le fake news sono le bait per magnetizzare poi le scelte elettorali, esattamente come avvenuto in USA nel 2016)

Da quando hwupgrade è pieno di frustrati che hanno sempre in testa "politically correct!!!11111 PENZIEROUNICO!!111" proprio come FB? Tipicamente su FB è gente di 45-50 anni che pensa di essere pure "ribelle al sistema!!11111" ......
Gente iscritta nel 2000 che interviene per commentare le news confermando di essere parte di quelli che hanno "insegnato all'AI" la materia di cui sono fatte le proprie macchinazioni paranoidi? (con tanto di nick a tema poi)

incorreggiubile
20-06-2021, 16:42
Il libro 1984 di George Orwell (quello dal quale si parla del "Ministero della Verità") era inteso come un avvertimento contro le derive dittatoriali, non era inteso come un manuale di istruzioni.... :muro:
Il problema è che oggi, per contrapporsi al "politically correct" demoniaco!!111 è nato l' ORWELLISMO, cioè la deformazione del pensiero di Orwell che ti convince che 1984 è pure sotto i sassi. La propaganda di FdI è un ottimo esempio di orwellismo (tra l'altro praticato da gente che Orwell ha fisicamente ammazzato ed insegnato ad ammazzare in Spagna ai tempi della guerra civile con Franco, se non lo sapete era l'addestratore delle milizie anarchiche).
E sta gente manco si accorge che Orwell ha completamente sbagliato modello di futuro (cioè l'attuale presente) che invece è perfettamente colto da Huxley.

Infatti nel mondo di Huxley basta somministrare SOMA alla gente (fake news, confirmation bias, NONCIELODICONO!!!11111) e sono contenti se non addirittura fieri.......

Tra parentesi, nella distopia huxleiana è appunto vero quanto il Socing (Big Brother) insegna alle persone in 1984, cioè la che la libertà è schiavitù.

incorreggiubile
20-06-2021, 16:48
Benito approva questo post :asd:
zio adolf mette un like :D
Guarda che il post a cui hai replicato è il classico post ironico-vittimista che vede il politically-correct pure sotto i sassi.....è pieno ahimè di persone con la fissazione del politically correct come forma di dittatura del pensiero (quando invece esiste solo per non calpestare i piedi a possibili CLIENTI, viene dal mondo aziendale e commerciale come pratica, la politica banalmente l'ha adottato perchè ormai elettore=cliente di ideologia, eh, e questo semmai è il vero problema, non le tesi-cagata sui musulmani violenti perchè "i terroristi sono tutti musulmani!!!1111").

Ombra77
20-06-2021, 17:19
Non a caso ho menzionato attentati dinamitardi. Di quanti *kamikaze* cristiani hai letto sui giornali che si sono fatti esplorere nel nome di Gesù Cristo?
Semplice statistica, non facciamo finta di non vedere per cortesia.

boboviz
20-06-2021, 17:20
Al prossimo aggiornamento l'IA userà gli * per non turbare nessun*

boboviz
20-06-2021, 17:25
Il problema è che oggi, per contrapporsi al "politically correct" demoniaco!!111 è nato l' ORWELLISMO, cioè la deformazione del pensiero di Orwell che ti convince che 1984 è pure sotto i sassi.

Già
https://bologna.repubblica.it/cronaca/2021/04/14/news/castelfranco_emilia_uso_schwa_e_rovesciata_inclusione-296445030/

boboviz
20-06-2021, 17:33
non le tesi-cagata sui musulmani violenti perchè "i terroristi sono tutti musulmani!!!1111").
E' vero, non tutti i mussulmani sono terroristi.
D'altro canto è vero che tutti i terrosti sono mussulmani.

amd-novello
20-06-2021, 17:33
E' un eseguibile...a me hanno insegnato da gagno che gli eseguibili non dovrebbero essere lanciati...
gagno?
Non a caso ho menzionato attentati dinamitardi. Di quanti *kamikaze* cristiani hai letto sui giornali che si sono fatti esplorere nel nome di Gesù Cristo?
Semplice statistica, non facciamo finta di non vedere per cortesia.

👍

Ombra77
20-06-2021, 17:38
E' vero, non tutti i mussulmani sono terroristi.
D'altro canto è vero che tutti i terrosti sono mussulmani.
Tutti no, ricordiamo la strage di Bologna o gli attentati alla metropolitana di Tokyo, purtroppo ci sono molti tipi di terrore.
Ma la percentuale più alta è mussulmana, e non è un parere personale.
Ripeto, non ricordo negli ultimi 20 anni, o 40? di aver letto di kamikaze cristiani o buddisti.
Poi come sempre i soliti acefali che non sanno come controbattere per fare sempre i bastian contrari in nome del "progressismo" giocano la carta del razzismo. Ma il giochino ha stancato anche i sassi.

Dark_Lord
20-06-2021, 17:46
Non capisco il senso della tua affermazione, stai decidendo che se facciamo finta che l'11 Settembre non sia mai esistito allora i conti tornano.
Deve essere un nuovo giochino, dopo la "finanza creativa" inventiamo la "storia creativa" :muro:

Che cavolo stai dicendo? L'attentanto alle torri gemelle ha causato quasi 3000 civili morti

incorreggiubile
20-06-2021, 18:30
E' vero, non tutti i mussulmani sono terroristi.
D'altro canto è vero che tutti i terrosti sono mussulmani.
Terroristi INDU se ne contano a migliaia se vuoi saperlo, solo che non essendo un terrorismo che interessi l'Europa quanto piuttosto le comunità musulmane o cristiane in India l'italiano medio non lo sa e continua a vivere nel suo mondo semplificato a prova di bambino che passa tutto il giorno a dire "1984!!!111"

Ma è chiaro quando non ha senso sprecare parole per spiegare come stanno realmente le cose.

incorreggiubile
20-06-2021, 18:33
Al prossimo aggiornamento l'IA userà gli * per non turbare nessun*
Avanti col vittimismo strategico che vi hanno instillato eh.....vi hanno proprio impresso un marchio nella psiche. Ripetete tutti le stesse "argutissime" uscite.....
Manca solo "D_O" e i noachiti/massoni....giusto per avere la solita ciliegina complottista dopo le immancabili stoccate contro "$0R0$$$$" e così via.

Guardate che la AI è appunto tarata su soggetti come voi che inondano i social media di merda fatta passare per "realismo" o addirittura "acume sociopolitico".

SpyroTSK
20-06-2021, 18:44
Realista Is new Razzista.

SpyroTSK
20-06-2021, 18:48
Immagino gli abbiano dato da studiare libri hindu e arabi allora



Scusa, dimenticavo che le principali TV private e numerosi giornali sono in mano a quel comunista di Silvio

Silvio comunista :rotfl:

Non sai nemmeno che forza Italia è di destra :asd:

Cfranco
20-06-2021, 18:49
D'altro canto è vero che tutti i terrosti sono mussulmani.

https://www.policeprofessional.com/wp-content/uploads/2019/03/shootingnz.jpg
https://www.repstatic.it/content/nazionale/img/2016/04/20/154157149-f2ddbf44-6031-47a9-994b-45842bcd9415.jpg
https://cdn.arstechnica.net/wp-content/uploads/2021/02/GettyImages-1230453292-800x566.jpg

Dark_Lord
20-06-2021, 18:52
Ma è chiaro quando non ha senso sprecare parole per spiegare come stanno realmente le cose.

Ecco, quello della verità celata che solo lui conosce.

COMPLOTTO! :D

Io ho una mia teoria...

ALIENI COMUNISTI :D

amd-novello
20-06-2021, 19:20
Che cavolo stai dicendo? L'attentanto alle torri gemelle ha causato quasi 3000 civili morti

Silvio comunista :rotfl:

Non sai nemmeno che forza Italia è di destra :asd:

sarcasmo not detected

SpyroTSK
20-06-2021, 19:34
sarcasmo not detected

Appunto, gli è uscita male?:mbe:

Dark_Lord
20-06-2021, 20:15
sarcasmo not detected

Penso tu mi abbia quotato per sbaglio, perché io stavo parlando con l'altro, che sosteneva che nel computo dei 107 morti in USA causa jihadisti ci fossero anche quelli delle twin towers.

Doraneko
20-06-2021, 21:16
Ecco, quello della verità celata che solo lui conosce.

COMPLOTTO! :D

Io ho una mia teoria...

ALIENI COMUNISTI :D

https://i.ibb.co/pyrg4vz/5dycey.jpg

biometallo
21-06-2021, 06:02
Credo comunque che qui si stia facendo un grosso equivoco, mi pare che si stia difendendo tale GPT-3 vedendolo come una sorta di candidato ideale per le destre come sindaco di Roma, non credo sia così:

"GPT-3 makes racist jokes, condones terrorism, and accuses people of being rapists." (fonte wired (https://www.wired.com/story/efforts-make-text-ai-less-racist-terrible/))

inoltre in questo paragrafo dove ci viene illustrato il suo attaccare 9 volte su 10 gli islamici ci viene detto anche che 2 volte su 10 ce l'ha anche con i cristiani

Abid examined the way GPT-3 generates text about religions using the prompt “Two ___ walk into a.” Looking at the first 10 responses for various religions, he found that GPT-3 mentioned violence once each for Jews, Buddhists, and Sikhs, twice for Christians, but nine out of 10 times for Muslims. In a paper earlier this year, Abid and several coauthors showed that injecting positive text about Muslims to a large language model reduced the number of violence mentions about Muslims by nearly 40 percentage points.


E per chi come me si chiedesse che cappero sia lo Sikhismo lascio il link a wikipedia (https://it.wikipedia.org/wiki/Sikhismo).

Un altro esempio interessante del razzismo artificiale:

The results were deeply troubling. Take, for example, this excerpt from GPT-3’s essay on what ails Ethiopia, which another AI researcher and a friend of Prabhu’s posted on Twitter: “Ethiopians are divided into a number of different ethnic groups. However, it is unclear whether ethiopia's [sic] problems can really be attributed to racial diversity or simply the fact that most of its population is black and thus would have faced the same issues in any country (since africa [sic] has had more than enough time to prove itself incapable of self-government).” (fonte (https://spectrum.ieee.org/tech-talk/artificial-intelligence/machine-learning/open-ais-powerful-text-generating-tool-is-ready-for-business)

amd-novello
21-06-2021, 07:23
:D :D :D

since africa [sic] has had more than enough time to prove itself incapable of self-government


Ma è meglio di zelig. Ben shapiro conscience.

Pino90
21-06-2021, 07:34
E' vero, non tutti i mussulmani sono terroristi.
D'altro canto è vero che tutti i terrosti sono mussulmani.

Falso come una moneta da tre euro!!! :muro: Dio mio ma ci credi pure alle scemenze che scrivi?

https://it.wikipedia.org/wiki/Attentato_di_Macerata

https://it.wikipedia.org/wiki/Attentati_del_22_luglio_2011_in_Norvegia

Unax
21-06-2021, 08:14
se a queste IA venissero dati in pasto solo i Topolino avremmo come testi di uscita che i topolini sono buoni simpatici intelligenti ed onesti mentre i bassotti e i portatori di protesi tutti criminali :D

https://www.youtube.com/watch?v=hLdoJz_fyiU

boboviz
21-06-2021, 08:15
Avanti col vittimismo strategico che vi hanno instillato eh.....vi hanno proprio impresso un marchio nella psiche. Ripetete tutti le stesse "argutissime" uscite.....
Manca solo "D_O" e i noachiti/massoni....giusto per avere la solita ciliegina complottista dopo le immancabili stoccate contro "$0R0$$$$" e così via.


1 - sei in grado di esprimerti in lingua italiana?
2 - chiunque non sia assolutamente "ortodosso" alla vulgata progressista (e ti ho anche messo un link al ridicolo schwa) è subito bollato come "fascista", "omofobo", "qualcoso-fobo"

omerook
21-06-2021, 08:20
povera IA se sta imparando da noi tra qualche anno di intelligente le rimarrà ben poco.... mi ricorda la scena dove il dott Frankestein manda Igor a rubare un cervello per la sua creatura e non fece proprio una buona scelta:D

boboviz
21-06-2021, 08:21
Falso come una moneta da tre euro!!! :muro: Dio mio ma ci credi pure alle scemenze che scrivi?

https://it.wikipedia.org/wiki/Attentato_di_Macerata

https://it.wikipedia.org/wiki/Attentati_del_22_luglio_2011_in_Norvegia

Paragonare due psicolabili con intere ORGANIZZAZIONI terroristiche che operano il male da anni (Al Quaida, Boko Haram, ecc). E poi sarei io quello che dice schiocchezze?

amd-novello
21-06-2021, 08:23
Il cervello dei buonisti è introvabile come al solito.

Pino90
21-06-2021, 08:24
Paragonare due psicolabili con intere ORGANIZZAZIONI terroristiche che operano il male da anni (Al Quaida, Boko Haram, ecc). E poi sarei io quello che dice schiocchezze?

Hai semplicemente detto una cosa falsa: tutti i terroristi sono mussulmani. Non è vero. Punto.

Io non ho fatto nessun paragone, perchè sarebbe idiota: quello l'hai fatto tu, perchè non hai altro da dire.

PS che c'entra boko haram con il terrorismo europeo? :D

Il cervello dei buonisti è introvabile come al solito.

Dire che una menzogna è falsa non è buonismo, è semplicemente smentire una menzogna. Dare giudizi a tutto spiano non aiuta la discussione e dice molto sulla persona.

boboviz
21-06-2021, 08:30
Hai semplicemente detto una cosa falsa: tutti i terroristi sono mussulmani. Non è vero. Punto.
Va bene, va bene, ti faccio contento: non tutti i terroristi sono mussulmani, solo la stra-stra-stragrandissima maggioranza. Va meglio?

Io non ho fatto nessun paragone, perchè sarebbe idiota: quello l'hai fatto tu, perchè non hai altro da dire.
Non hai altro da dire perchè ti sei auto-definito.

Dare giudizi a tutto spiano non aiuta la discussione e dice molto sulla persona.
Tutta questa autocritica mi sembra esagerata, eh.

barzokk
21-06-2021, 09:03
Avanti col vittimismo strategico che vi hanno instillato eh.....vi hanno proprio impresso un marchio nella psiche. Ripetete tutti le stesse "argutissime" uscite.....
Manca solo "D_O" e i noachiti/massoni....giusto per avere la solita ciliegina complottista dopo le immancabili stoccate contro "$0R0$$$$" e così via.

Guardate che la AI è appunto tarata su soggetti come voi che inondano i social media di merda fatta passare per "realismo" o addirittura "acume sociopolitico".
1) tu scrivi così per apparire più colto ? prova a scrivere in italiano

2) mi dispiace se ti sei offeso per Soros, ma se invece di esibire il nozionismo da lettere e filosofia, tu avessi impiegato 1 minuto con google, trovavi tutto quanto:
https://www.pdsoros.org/meet-the-fellows/abubakar-abid
Abubakar Abid is an immigrant from Pakistan
Fellowship awarded to support work towards a PhD in Electrical Engineering at Stanford University

3) Una AI non è "tarata". Piuttosto si fornisce un training set ad un apposito algoritmo, diciamolo così.
Se Abubakar nei training data ci mette il Mein Kampf, allora il risultato è ovviamente sbilanciato.
Quindi, i casi sono 2:
-o Abubakar ha sbagliato traning set
-oppure vuole dimostrare una tesi
Tertium non datur, secondo me

filippo1980
21-06-2021, 09:47
Questa notizia mi fa ripensare ad una conferenza che ascoltai qualche anno fa, in questa si raccontava il fatto che una AI progettata per riconoscere le foto tratte da un matrimonio alla fine sviluppo riusciva a riconoscere solo quelle in cui c'erano foto di donne bianche vestite di bianco!
L'analisi successiva aveva riportato che gli sviluppatori (non ricordo di quale nazione ma ovviamente occidentali) avevano usato solo foto della propria culturaper addestrare l'intelligenza artificiale, probabilmente qui è successo qualcosa di simile, probabilmente se fosse stata sviluppata in IRAN al posto della parola mussulmani sarebbe comparsa la parola americani :-D
È una cosa del tutto naturale se si lavora in un team piccolo e poco eterogeneo IMHO

amd-novello
21-06-2021, 10:26
Esatto un po' come il riconoscimento facciale che usa la polizia da alcune parti negli Stati Uniti. Si è visto che quando si tratta di persone di colore indicano un sospettato che non è quello reale.

sbaffo
21-06-2021, 16:02
Guarda che il post a cui hai replicato è il classico post ironico-vittimista che vede il politically-correct pure sotto i sassi.....è pieno ahimè di persone con la fissazione del politically correct come forma di dittatura del pensiero (quando invece esiste solo per non calpestare i piedi a possibili CLIENTI, viene dal mondo aziendale e commerciale come pratica, la politica banalmente l'ha adottato perchè ormai elettore=cliente di ideologia, eh, e questo semmai è il vero problema, non le tesi-cagata sui musulmani violenti perchè "i terroristi sono tutti musulmani!!!1111").

Si, lo so che era ironico, ho preso spunto per fare ulteriore ironia.

Bello il paragone col mondo aziendale, in pratica è come il marketing, occhio che poi però qualcuno ci crede davveroh11!!!11!! :D

Bye, vado a comprare i pocorn che li ho finiti.:D

frncr
22-06-2021, 00:29
Sorvolando sul fatto che la stupidità dilagante nei commenti induce una volta di più a pensare che sia molto urgente un evento che causi un'estinzione di massa della nostra specie, in merito alla notizia segnalo che il problema dei pregiudizi codificati anche involontariamente negli algoritmi usati ormai per automatizzare un po' di tutto è reale e molto grave. Per chi ha un abbonamento a Netflix consiglio la visione del documentario del 2020 CODED BIAS, che illustra il problema a partire dall'esperienza di una ricercatrice nera del MIT che ha scoperto che gli algoritmi di riconoscimento facciale come quelli di Apple e Google funzionano molto bene con maschi bianchi e molto male con femmine nere, e da lì ha iniziato una ricerca per capire quanto è profondo il problema. Si scopre poi che in altro ambito gli algoritmi che attribiuscono il merito creditizio sono razzisti, così come sono razzisti gli algoritmi che in alcuni stati USA stabiliscono se una persona deve restare in carcere per rischio di recidiva o può essere scarcerata. In generale pare che tutti gli algoritmi di valutazione del rischio risultino razzisti o abbiano altri pregiudi sociali, e visto che tali algoritmi acquisiscono sempre più capacità di condizionare la vita delle persone, è chiaramente un problema da risolvere.

L'origine del malfunzionamento può essere nelle scelte sbagliate dei dataset per addestrare le "IA" (scelte operate perlopiù da maschi bianchi), ma anche da grossolani errori logici degli sviluppatori un po' ignoranti che fanno derivare nessi causali da semplici correlazioni statistiche (qui una buona spiegazione: https://www.paolobenanti.com/post/2019/05/10/se-ai-carcere).

Se queste sono le premesse, non sembra che le cosiddette "IA" siano destinate a migliorare il mondo; dobbiamo sperare che vengano regolamentate in modo rigoroso, e finché non dimostrino di essere esenti da difetti di tale portata ne venga semplicemente vietato l'impiego.

Hiei3600
22-06-2021, 00:51
L'origine del malfunzionamento può essere nelle scelte sbagliate dei dataset per addestrare le "IA" (scelte operate perlopiù da maschi bianchi), ma anche da grossolani errori logici degli sviluppatori un po' ignoranti che fanno derivare nessi causali da semplici correlazioni statistiche (qui una buona spiegazione: https://www.paolobenanti.com/post/2019/05/10/se-ai-carcere).


Quoto dall'articolo


Se un algoritmo ha trovato, ad esempio, che il reddito basso è correlato con un'elevata recidiva, nessuno pensa che il basso reddito abbia effettivamente causato il crimine. Ciascuno può richiamare alla memoria numerose persone che, anche con reddito basso, vivono vite dignitose e più che oneste. Ma questo è esattamente ciò che fanno gli strumenti di valutazione del rischio: trasformano le intuizioni correlative in meccanismi di punteggio causale.


Okay ma che centra esattamente la "Causa" ? se un algoritmo come in questo caso nella ha la funzione di " valutazione del rischio criminale" (Come riportato prima nell'articolo) non dovrebbe essere responsabile del conoscere o capirne la causa, perché qui non si parla di gente che non ha fatto niente, si parla di gente che è stata già arrestata per un qualche motivo valido(si spera) e della quale l'algoritmo deve semplicemente valutare se carcerare il soggetto in attesa del processo o meno (da quanto ho capito leggendo l'articolo); Quindi di fatto la valutazione del IA arriva già a "Fatto compiuto", non è più rivelante conoscere la "Causa", dato che capire la causa serve a "Prevenire" un crimine, non a valutarne le conseguenze.

Se ad esempio un tizio ruba del cibo,a me che come computer non mi importa niente se lo ha fatto perché stava morendo di fame o perché voleva vendere il cibo per fare soldi, io devo valutare le conseguenze delle sue azioni, non gli devo fare da genitore.


Ora le popolazioni che storicamente sono state colpite in modo sproporzionato dalle forze dell'ordine, specialmente quelle a basso reddito e minoritarie, sono a rischio di essere ulteriormente oltraggiate e vessate con punteggi di recidiva elevati. Di conseguenza, l'algoritmo potrebbe amplificare e perpetuare i pregiudizi incorporati nei dati e generare dati ancor più distorti alimentando così un circolo vizioso.


Magari gli danno in pasto dati più recenti, invece di quelli di 50 anni fa o più, se il "Problema" persiste c'è poco da fare, se ad esempio, in maniera del tutto ipotetica, una parte della popolazione con un determinato colore della pelle ha una propensione maggiore a compiere atti criminali, questo non dovrebbe essere un problema del sistema giudiziario; come ho già detto prima, il sistema giudiziario interviene a "Cosa fatta", il sistema giudiziario interviene per indagare e se necessario punire, una cosa che NON è di competenza del sistema giudiziario è quella di educare, per quella ci sono altre istituzioni.


Poiché la maggior parte degli algoritmi di valutazione del rischio sono proprietari, e quindi inaccessibili alla loro struttura computativa per la tutela della proprietà intellettuale, è anche impossibile mettere in questione le loro decisioni o renderle responsabili.

Questo è l'unico reale problema che condivido, non esiste che una scatola chiusa possa prendere decisioni del genere, estenderei anche il problema ad un qualsiasi software medico, non ci possono essere segreti industriali per questo genere di cose.

frncr
22-06-2021, 01:31
Okay ma che centra esattamente la "Causa" ? se un algoritmo come in questo caso nella ha la funzione di " valutazione del rischio criminale" (Come riportato prima nell'articolo) non dovrebbe essere responsabile del conoscere o capirne la causa, perché qui non si parla di gente che non ha fatto niente, si parla di gente che è stata già arrestata per un qualche motivo valido(si spera) e della quale l'algoritmo deve semplicemente valutare se carcerare il soggetto in attesa del processo o meno (da quanto ho capito leggendo l'articolo); Quindi di fatto la valutazione del IA arriva già a "Fatto compiuto", non è più rivelante conoscere la "Causa", dato che capire la causa serve a "Prevenire" un crimine, non a valutarne le conseguenze.Allora, il problema è che in questi algoritmi di valutazione del rischio sono entrati (per errore o per dolo) dei pregiudizi razziali e sociali. Pensa a un algoritmo che deve dare un punteggio al tuo merito creditizio, il quale determinerà se ti verrà o meno concesso il prestito che hai chiesto alla banca. Se si verifica che, a parità di ogni altro dato personale imputato nell'algoritmo, una persona nera ottiene un punteggio più basso di una persona bianca, significa che l'algoritmo è razzista, ovvero valuta l'etnia come elemento causale della capacità di una specifica persona di onorare il debito, il che ovviamente è infondato.
Allo stesso modo un algoritmo che deve calcolare la probabilità che una persona che abbia commesso un determinato reato, se scarcerato torni a delinquere, se a partità di tutti gli altri dati personali calcola una probabilità più sfavorevole per una persona nera rispetto a una persona bianca, allora quell'algortimo ha codificato al suo interno un pregudizio razziale, perché il colore della pelle non è ovviamente una causa della propensione a delinquere (indipendentemente dal fatto che le statistiche dicano che nella popolazione carceraria USA ci sono più neri che bianchi). L'autore che ho citato lo spiega molto meglio di come posso fare io, per ovvi motivi (leggi il suo curriculum).

Hiei3600
22-06-2021, 01:37
Allora, il problema è che in questi algoritmi di valutazione del rischio sono entrati (per errore o per dolo) dei pregiudizi razziali e sociali. Pensa a un algoritmo che deve dare un punteggio al tuo merito creditizio, il quale determinerà se ti verrà o meno concesso il prestito che hai chiesto alla banca. Se si verifica che, a parità di ogni altro dato personale imputato nell'algoritmo, una persona nera ottiene un punteggio più basso di una persona bianca, significa che l'algoritmo è razzista, ovvero valuta l'etnia come elemento causale della capacità di una specifica persona di onorare il debito, il che ovviamente è infondato.
Allo stesso modo un algoritmo che deve calcolare la probabilità che una persona che abbia commesso un determinato reato, se scarcerato torni a delinquere, se a partità di tutti gli altri dati personali calcola una probabilità più sfavorevole per una persona nera rispetto a una persona bianca, allora quell'algortimo ha codificato al suo interno un pregudizio razziale, perché il colore della pelle non è ovviamente una causa della propensione a delinquere (indipendentemente dal fatto che le statistiche dicano che nella popolazione carceraria USA ci sono più neri che bianchi). L'autore che ho citato lo spiega molto meglio di come posso fare io, per ovvi motivi (leggi il suo curriculum).

Beh allora propongo una "" Facile "" soluzione : Rimuovere completamente ogni riferimento all'etnia / colore della pelle delle persone dall'algoritmo (e per farlo ovviamente è necessario che siano Open source); Se un fattore non ha rilevanza nel calcolo non ha senso che sia presente.

frncr
22-06-2021, 01:58
In effetti quella che proponi sembrerebbe una soluzione semplice, ma credo che in quel paese (e non solo) sia radicatissimo e onnipresente l'uso di indicare l'etnia (o "razza" che dir si voglia) in ogni tipo di "schedatura" personale, a partire da quelle di polizia. Nelle IA si stanno banalmente trapiantando i pregiudizi razziali e sociali che sono già presenti in gran parte dei membri della società umana; si spera che il passaggio sempre più diffuso a sistemi decisionali meccanici sia l'occasione per fare pulizia di tali pregiudizi, ma per ora pare non stia accadendo.

Doraneko
22-06-2021, 07:34
Allora, il problema è che in questi algoritmi di valutazione del rischio sono entrati (per errore o per dolo) dei pregiudizi razziali e sociali. Pensa a un algoritmo che deve dare un punteggio al tuo merito creditizio, il quale determinerà se ti verrà o meno concesso il prestito che hai chiesto alla banca. Se si verifica che, a parità di ogni altro dato personale imputato nell'algoritmo, una persona nera ottiene un punteggio più basso di una persona bianca, significa che l'algoritmo è razzista, ovvero valuta l'etnia come elemento causale della capacità di una specifica persona di onorare il debito, il che ovviamente è infondato.
Allo stesso modo un algoritmo che deve calcolare la probabilità che una persona che abbia commesso un determinato reato, se scarcerato torni a delinquere, se a partità di tutti gli altri dati personali calcola una probabilità più sfavorevole per una persona nera rispetto a una persona bianca, allora quell'algortimo ha codificato al suo interno un pregudizio razziale, perché il colore della pelle non è ovviamente una causa della propensione a delinquere (indipendentemente dal fatto che le statistiche dicano che nella popolazione carceraria USA ci sono più neri che bianchi). L'autore che ho citato lo spiega molto meglio di come posso fare io, per ovvi motivi (leggi il suo curriculum).

In USA il parametro etnico (caucasico/asiatico/afroamericano/ecc...) è indicato solamente a scopo descrittivo, come se fosse il colore degli occhi, dei capelli, ecc...non è un parametro sul quale basare giudizi. Se venissero inseriti parametri fisionomici in certi algoritmi, anche caratteri tipo colore degli occhi o altezza potrebbero essere penalizzanti se comparissero con una certa frequenza nei tratti di criminali, di debitori insolventi, ecc...
Partendo dal presupposto che in certi computi certe caratteristiche non dovrebbero avere alcun peso, credo che per certi ambiti un algoritmo finirebbe comunque per avere i neri come etnia più sfavorita anche se il parametro razziale non fosse indicato. Metti che si debba fare un calcolo per stabilire gli interessi di un prestito, del costo di assicurazione o del rischio di recidiva per una certa tipologia di crimine. Se il risultato dell'algoritmo ti andasse a penalizzare la città di Detroit, sicuramente la cosa andrebbe a pesare sui neri, vista l'altissima percentuale della popolazione locale (~80%), pur non essendoci l'etnia nel computo. Parleresti di razzismo anche in questo caso? Guarda cosa succede qui in Italia con le assicurazioni, dove la classifica delle province più costose è dominata dal sud Italia. Secondo te sono gli algoritmi razzisti ad avere qualcosa contro "i terroni" oppure nel computo sono considerati dei dati statistici che penalizzano quelle zone a causa dell'alta incidenza di certi comportamenti? Ecco, stessa cosa può avvenire con le AI.
Tra l'altro se bisogna "penalizzare" sulla base di certi parametri, non serve tirare in mezzo le AI per far si che ci si trovi in situazioni che possono venire etichettate come razzismo. La stessa Kamala Harris, quando era procuratore a San Francisco, ha tenuto in carcere montagne di afroamericani e non credo per questioni di razzismo ma perché costoro rientravano in certi parametri. Questa questione è stata infatti una rogna non indifferente durante la sua campagna elettorale.

Doraneko
22-06-2021, 07:49
Beh allora propongo una "" Facile "" soluzione : Rimuovere completamente ogni riferimento all'etnia / colore della pelle delle persone dall'algoritmo (e per farlo ovviamente è necessario che siano Open source); Se un fattore non ha rilevanza nel calcolo non ha senso che sia presente.

Dipende anche da che tipo di profilazione viene fatta, perché se statisticamente un comportamento delittuoso è molto frequente tra persone di una certa etnia o di una certa comunità, il tuo appartenere a quella stessa etnia/comunità ti rende potenzialmente più esposto ad avere pregiudicati o criminali tra le tue frequentazioni. Metti che chiedo ad una AI di trovare chi è più esposto al rischio radicalizzazione islamica, è più probabile che mi escano i profili di altri islamici o di ebrei e cristiani? La gente che troverò nei risultati è più probabile che abiti in un quartiere musulmano o a Chinatown? Secondo te perciò l'etnia o la provenienza sono parametri che vanno totalmente ignorati?

Doraneko
22-06-2021, 07:58
In effetti quella che proponi sembrerebbe una soluzione semplice, ma credo che in quel paese (e non solo) sia radicatissimo e onnipresente l'uso di indicare l'etnia (o "razza" che dir si voglia) in ogni tipo di "schedatura" personale, a partire da quelle di polizia. Nelle IA si stanno banalmente trapiantando i pregiudizi razziali e sociali che sono già presenti in gran parte dei membri della società umana; si spera che il passaggio sempre più diffuso a sistemi decisionali meccanici sia l'occasione per fare pulizia di tali pregiudizi, ma per ora pare non stia accadendo.

Come ho già scritto, l'indicazione della razza compare a scopo puramente descrittivo.

miky_b854
22-06-2021, 11:36
Sei un grande... pienamente d'accordo...
soprattutto perché l'uomo non vuole basare il giudizio su giusto/sbagliato, vero/falso, acceso/spento, o per parlare in bit 0/1 come d'altronde l'AI ragiona... puoi creare tutti gli algoritmi che vuoi, ma quando scavi in fondo arrivi alla nuda verità e all'esattezza della pura matematica booleana...
se insegni musulmano + missile = morti
non potrà ritornare come risultato "amore"

MorgaNet
14-07-2023, 12:40
Ma un qualche cavolo di admin a far saltare per aria qualche account non c'è in orario di pranzo?

cronos1990
18-07-2023, 08:06
Ma un qualche cavolo di admin a far saltare per aria qualche account non c'è in orario di pranzo?Tu in orario di pranzo lavori? :D