PDA

View Full Version : In USA una legge contro gli algoritmi discriminatori


Redazione di Hardware Upg
12-04-2019, 17:41
Link alla notizia: https://www.hwupgrade.it/news/web/in-usa-una-legge-contro-gli-algoritmi-discriminatori_81835.html

Secondo una nuova proposta, le società dovranno ispezionare e verificare i propri sistemi machine learning affinché gli algoritmi alla base siano liberi da eventuali bias

Click sul link per visualizzare la notizia.

Sputafuoco Bill
12-04-2019, 18:13
"la Repubblicana Alexandria Ocasio-Cortez".
Per piacere non insultate il partito repubblicano in questo modo, AOC è una fanatica socialista che sta dalla parte opposta.

WarSide
12-04-2019, 20:28
Quindi adesso i training set per gli algoritmi di ML ce li fornisce direttamente il governo?

Chi certifica che i dati usati non discriminino qualcuno?

Robe del genere fanno capire quante persone aprano la bocca senza avere competenze per farlo. :muro: :muro:

Obelix-it
12-04-2019, 21:13
Sintomo solo di quanto sono idioti i moderni 'dem'...

WarSide
12-04-2019, 22:58
Sintomo solo di quanto sono idioti i moderni 'dem'...

Mica e' una questione di colore politico.

Il senatore che chiese alla Zucca come facesse soldi Fb e' repubblicano per dire.

Ragerino
13-04-2019, 08:27
Il problema di fondo c'è. Nessuno sà come agisce la macchina che ha 'imparato da sola', fino a che non si va ad analizzare il codice. E cosi potrebbe benissimo discriminare le persone in base a cose che nella realtà non hanno alcun senso.
Io non mi sentirei molto tranquillo a sapere che tutti gli aspetti della mia vita vengono decisi da un computer. Se darmi o meno il mutuo, un prestito, la malattia che ho, la mia 'capacità' di delinquere. I computer non hanno capacità di pensiero, ed agiscono solo secondo la matematica. Non possono esserci eccezioni. Il problema è che nella realtà ci sono.
Rischiamo di ritrovarci in un mondo dove il carnefice diventa la fredda burocrazia delle macchine.
Avete presente Elysium? Ecco, uguale.

Bradiper
13-04-2019, 09:56
Regarino ti quoto,ci sono valutazioni che vanno al di là della semplice matematica e variabili che non si possono tradurre in numero che darebbero un risultato diverso dal semplice calcolo. La vita non si può tradurre in un operazione per quanto ami i computer e il progresso.

s-y
13-04-2019, 10:43
a prescindere dalla notizia in sè
vedo un futuro nemmeno troppo distante (al netto di 'autoreset' globali non del tutto escludibili) dove per gli 'individui tecnologici' ci saranno scontri più o meno etici del tutto simili a quelli che da lustri impreziosiscono la società 'moderna'

sarà da ridere, forse per non piangere

thresher3253
13-04-2019, 11:48
Sintomo solo di quanto sono idioti i moderni 'dem'...
Eh perchè i "rep" sono tecnologicamente all'avanguardia invece.

giovanni69
13-04-2019, 12:01
E secondo Microsoft, dovremmo essere generalmente entusiasti per l'uso massiccio dell'AI... notizia uscita lo stesso giorno, casualmente.

https://edge9.hwupgrade.it/news/market/ricerca-microsoft-l-italia-e-il-paese-piu-ottimista-nei-confronti-dell-intelligenza-artificiale_81803.html

WarSide
13-04-2019, 12:50
Il problema di fondo c'è. Nessuno sà come agisce la macchina che ha 'imparato da sola', fino a che non si va ad analizzare il codice. E cosi potrebbe benissimo discriminare le persone in base a cose che nella realtà non hanno alcun senso.
Io non mi sentirei molto tranquillo a sapere che tutti gli aspetti della mia vita vengono decisi da un computer. Se darmi o meno il mutuo, un prestito, la malattia che ho, la mia 'capacità' di delinquere. I computer non hanno capacità di pensiero, ed agiscono solo secondo la matematica. Non possono esserci eccezioni. Il problema è che nella realtà ci sono.
Rischiamo di ritrovarci in un mondo dove il carnefice diventa la fredda burocrazia delle macchine.
Avete presente Elysium? Ecco, uguale.

Nessun ignorante sa come agisce.
Per piacere, non parlate di cose che non conoscete per sentito dire. :(

Gli algoritmi di ML, che siano ad apprendimento supervisionato o non supervisionato, partono sempre da un dataset solitamente generato da umani.

Un algoritmo non discrimina, ma puo' accentuare quella che noi vediamo come discriminazione semplicemente perche' siamo noi esseri umani a discriminare ed a produrre dati che poi portano un algoritmo a dare una risposta che puo' non piacere.


Se sei afroamericano con un reddito medio/basso e non laureato, e' molto probabile che un banchiere (= persona in carne ed ossa) non ti presti $200,000. E' altrettanto probabile che tanti altri banchieri non ti prestino quei soldi.
La negazione del credito, una volta immessa nel sistema produce dei dati, questi dati sono poi digeriti da algoritmi decisionali.
L'algoritmo impara come comportarsi usando quei dati, quindi imperara' che un afroamericano che non e' andato al college ed ha un reddito <30k$/anno non deve ricevere un mutuo.
Adesso volete dirmi che il problema e' l'algoritmo? :doh:


Faccio un altro esempio: siete su amazon, cercate un regalino per la vs bambina. Vedete una bambola e la comprate. Come voi, anche tanti altri compreranno bambole, vestitinni rosa & co.

Un bel giorno questi dati vengono ingeriti da un algoritmo di raccomandazione e, in base a quei dati, amazon continuera' a suggerirvi vestitini da fatina, mini cucine, cicciobello & co.

Capite che non e' l'algoritmo a discriminare se non vi invita a comprare un microscopio, o il kit del piccolo chimico a vostra figlia. :muro:

Potrei andare avanti a fare esempi del genere per giorni.

giovanni69
13-04-2019, 13:17
Adesso volete dirmi che il problema e' l'algoritmo? :doh:

Il problema è chi corregge quell'algoritmo una volta che avesse creato distorsioni o situazioni considerate critiche per l'essere umano senza AI decision making e quanto trasparente è la possibilità di intervento. Sarà un altro AI decision maker o l'essere umano privo di AI support? E fino a che punto il sistema diventerà così complesso da essere governato senza l'AI?

Adesso per poter effettuare una ricerca pulita e senza condizionamenti su Amazon, è necessario ripulire come minimo la cache del browser e non solo ( meglio usare browser portable), non essere loggati con il proprio account, cambiare device per avere diversi macaddress, ripulire i links dalle referenze, cambiare ip, ecc. Ma quanti lo fanno per pigrizia ed ignoranza al fine di poter effettuare una ricerca libera?


Se si arriva an mero esecuzionismo dell'algoritmo in quanto frutto di un bias che in origine era umano, ma che nel momento in cui si diviene algoritmo allora viene considerato oggettivo e quasi/dunque incontestabile, allora il problema diventa grosso.

Già oggi ed in passato si arrivava a chiudere il discorso e tacciare di ignoranza le persone rispondendo: "lo dice il computer " o" lo dice la calcolatrice", dimenticandosi il vecchio e saggio garbage-in, garbage-out.

WarSide
13-04-2019, 15:14
Il problema è chi corregge quell'algoritmo una volta che avesse creato distorsioni o situazioni considerate critiche per l'essere umano senza AI decision making e quanto trasparente è la possibilità di intervento. Sarà un altro AI decision maker o l'essere umano privo di AI support? E fino a che punto il sistema diventerà così complesso da essere governato senza l'AI?

Se non si vogliono comportamenti "sconvenienti", allora non puoi fare training dell'algoritmo con i soli dati storici ma devi introdurne di altri.
Un algoritmo di ML e' come un bambino. Se tu insegni ad un bambino che maneggiare pistole e' male, lui non lo fara'. Se non lo educhi lui magari ci gioca e si spara su un piede.

Adesso per poter effettuare una ricerca pulita e senza condizionamenti su Amazon, è necessario ripulire come minimo la cache del browser e non solo ( meglio usare browser portable), non essere loggati con il proprio account, cambiare device per avere diversi macaddress, ripulire i links dalle referenze, ecc. Ma quanti lo fanno per pigrizia ed ignoranza al fine di poter effettuare una ricerca libera?


Credi seriamente che la ricerca/recommendation di amazon sia libera da condizionamenti quando usi amazon in modalita' anonima?

Ti do una brutta notizia, non e' cosi'. Semplicemente viene usato un dataset di base che non tiene conto delle tue personali necessita'. Ma non vedrai mai amazon suggerirti di comprare il kit del piccolo chimico se stai cercando bambole.


Se si arriva an mero esecuzionismo dell'algoritmo in quanto frutto di un bias che in origine era umano, ma che nel momento in cui si diviene algoritmo allora viene considerato oggettivo e quasi/dunque incontestabile, allora il problema diventa grosso.

Già oggi ed in passato si arrivava a chiudere il discorso e tacciare di ignoranza le persone rispondendo: "lo dice il computer " o" lo dice la calcolatrice", dimenticandosi il vecchio e saggio garbage-in, garbage-out.

"Lo dice la calcolatrice" direi che va piu' che bene, se non ha bug. La matematica non e' un'opinione. :D

Diverso e' dire: l'algoritmo di ranking/recommendation/... dice X quindi e' X. C'e' sempre un certo margine di "errore" (il discorso e' molto complesso, lo sto semplificando) in un algo di ML, solo che non viene mostrato assieme ai risultati.

La discrezionalita' dovrebbe essere sempre dell'uomo in ultima battuta.
Un algoritmo potrebbe dire con un grado di confidenza dal 99% che un mutuo alla persona X non deve essere erogato. Sta al banchiere decidere se la persona rientra in quell'1% che merita comunque il mutuo (e diventerebbe un outlier per l'algoritmo stesso).

Hiei3600
13-04-2019, 15:39
Già mi immagino la scena.
Mi immagino il programmatore che spiega al computer che nonostante in America(tm) le persone di colore compiono più crimini di quelle non di colore il computer deve comunque far finta che i dati sono uguali a prescindere dal colore della pelle,perché la realtà può anche andarsi a farsi fottere.

E poi immagino la gente che mi fa i pipponi perché non è una questione di colore della pelle,ma di cultura / posizione sociale / geografica / eccetera,tutto vero,peccato che queste cose sono altrettanto prese in considerazione e vengono altrettanto riportate,però il 99% delle persone non è che si legge un intero articolo scientifico,legge al massimo il titolo del articolo giornalistico a cui fa riferimento, in cui spesso viene riassunto (male) il risultato dell'articolo scientifico.

(Così come mi immagino la gente che avrà letto solo il primo paragrafo di quello che ho scritto e che mi da del razzista).

Doraneko
13-04-2019, 15:43
Già oggi ed in passato si arrivava a chiudere il discorso e tacciare di ignoranza le persone rispondendo: "lo dice il computer " o" lo dice la calcolatrice", dimenticandosi il vecchio e saggio garbage-in, garbage-out.

Non confondiamo però per "garbage" o per condizionamento umano la totale assenza di peli sulla lingua di una AI, quando magari dovesse scartare il 100% delle donne candidate ad una qualche posizione lavorativa o etichettare una determinata etnia come più incline a delinquere di un'altra. Un "freddo algoritmo" non dovrebbe concepire né le quote rosa né la political correctness, cose che al giorno d'oggi per qualcuno sono imprescindibili.

Hiei3600
13-04-2019, 15:44
Non confondiamo però per "garbage" o per condizionamento umano la totale assenza di peli sulla lingua di una AI, quando magari dovesse scartare il 100% delle donne candidate ad una qualche posizione lavorativa o etichettare una determinata etnia come più incline a delinquere di un'altra. Un "freddo algoritmo" non dovrebbe concepire né le quote rosa né la political correctness, cose che al giorno d'oggi per qualcuno sono imprescindibili.

Precisamente!:read:

Doraneko
13-04-2019, 15:46
Già mi immagino la scena.
Mi immagino il programmatore che spiega al computer che nonostante in America(tm) le persone di colore compiono più crimini di quelle non di colore il computer deve comunque far finta che i dati sono uguali a prescindere dal colore della pelle,perché la realtà può anche andarsi a farsi fottere.

Mi hai preceduto :D

tallines
13-04-2019, 17:09
Il problema è chi corregge quell'algoritmo una volta che avesse creato distorsioni o situazioni considerate critiche per l'essere umano senza AI decision making e quanto trasparente è la possibilità di intervento. Sarà un altro AI decision maker o l'essere umano privo di AI support? E fino a che punto il sistema diventerà così complesso da essere governato senza l'AI?

Adesso per poter effettuare una ricerca pulita e senza condizionamenti su Amazon, è necessario ripulire come minimo la cache del browser e non solo ( meglio usare browser portable), non essere loggati con il proprio account, cambiare device per avere diversi macaddress, ripulire i links dalle referenze, cambiare ip, ecc. Ma quanti lo fanno per pigrizia ed ignoranza al fine di poter effettuare una ricerca libera?


Se si arriva an mero esecuzionismo dell'algoritmo in quanto frutto di un bias che in origine era umano, ma che nel momento in cui si diviene algoritmo allora viene considerato oggettivo e quasi/dunque incontestabile, allora il problema diventa grosso.

Già oggi ed in passato si arrivava a chiudere il discorso e tacciare di ignoranza le persone rispondendo: "lo dice il computer " o" lo dice la calcolatrice", dimenticandosi il vecchio e saggio garbage-in, garbage-out.
Quoto :cincin: :mano:

Notturnia
14-04-2019, 07:11
L’uomo dice che il ML discrimina ?
A me pare che sia nella natura stessa il concetto di discriminare
Non tutto è lasciato al caso
Il leone cerca la preda più debole
Così noi facciamo le scelte delle nostre amicizie già all’asilo etc
Un ML discriminerà sempre perché guarda lo stato dei fatti a meno che non gli vengano negate informazioni
È come dire che vorremmo una matematica più elastica