In USA una legge contro gli algoritmi discriminatori

In USA una legge contro gli algoritmi discriminatori

Secondo una nuova proposta, le società dovranno ispezionare e verificare i propri sistemi machine learning affinché gli algoritmi alla base siano liberi da eventuali bias

di pubblicata il , alle 18:41 nel canale Web
 

Le grandi compagnie che fanno uso di sistemi basati su machine learning (due esempi: riconoscimento facciale o algoritmi di targeting pubblicitario) potrebbero dover presto ispezionare gli algoritmi alla base per verificare se esistano imparzialità. E' quanto emerge da una nuova proposta di legge che viene promossa negli USA dai senatori Democratici Corey Booker e Ron Wyden, e dal Rappresentante Yvette Clarke.

Nel caso in cui la proposta di legge "Algorithmic Accountability Act" dovesse essere approvata, la Federal Trade Commission avrà la responsabilità di stabilire una serie di regole per la valutazione dei sistemi automatizzati "altamente sensibili" e le società si troveranno a dover verificare se gli algoritmi alla base del funzionamento di tali sistemi siano parziali o discrimonatori, così come se pongano rischi per la privacy e la sicurezza dei consumatori.

Si tratta di una proposta di legge che andrebbe a rivolgersi a grandi società con l'accesso a grosse quantità di informazioni: in particolare prenderebbe di mira le realtà con un giro d'affari superiore ai 50 milioni di dollari l'anno, che detengono informazioni relative ad almeno 1 milione di individui o dispositivi, o che agiscono principalmente da "data broker" con la compravendita di dati dei consumatori.

Le realtà che dovessero risultare soggette all'eventuale legge avranno quindi l'obbligo di valutare tutti quegli algoritmi che in un modo o nell'altro vanno ad incidere sui diritti legali dei consumatori, quelli che provano a prevedere e analizzare il loro comportamento, quelli che analizzano grandi quantità di dati sensibli e quelli che vengono usati per monitorare grandi spazi fisici pubblicamente accessibili. Si evince come tutto ciò potrebbe coprire un'ampia fetta delle attività economiche legate al mondo della tecnologia, mettendo le varie società nella situazione di dover rispondere in maniera tempestiva nel caso in cui un'ispezione dovesse sollevare qualche tipo di problema legato alla privacy, alla sicurezza e in generale ai diritti della persona.

Qualche mese fa la Repubblicana Alexandria Ocasio-Cortez aveva sollevato il problema, in occasione delle celebrazioni a New York per il Martin Luther King Jr. Day.£ Gli algoritmi sono creati dagli esseri umani, e questi algoritmi sono ancora legati alle supposizioni di base dell'essere umano. Sono semplicemente supposizioni automatizzate, e se in esse non si elimina un eventuale pregiudizio, si va semplicemente a renderlo automatico" dichiarò allora Ocasio-Cortez. 

Del resto i sistemi machine learning producono output/risultati che riflettono l'allenamento che hanno ricevuto nel corso del tempo. Se le informazioni in ingresso sono in qualche modo condizionate (o è condizionato il modo in cui le informazioni devono essere elaborate) lo stesso accadrà anche per i risultati in uscita. E questi condizionamenti possono essere presenti in maniera non intenzionale e riflettere quei condizionamenti anche involontari che ruotano attorno a questioni razziali, di genere e di classe sociale. Non v'è da escludere nemmeno la possibilità dolosa, qualora qualche malintenzionato decida di allenare sistemi machine learning intenzionalmente con dati viziati. Un problema che può avere risvolti pratici, ma soprattutto etici, non indifferenti.

Sulla nuova proposta di legge il Senatore Wyden ha dichiarato: "I computer entrano sempre più in gioco nelle decisioni più importanti che si ripercuotono sulla vita degli Americani - se si possa o meno comprare casa, avere un lavoro o addirittura finire in prigione. Ma invece di eliminare le ingiustizie, troppo spesso questi algoritmi dipendono da vizi o presupposti parziali o dati che in realtà rafforzano la discriminazione contro le donne e le persone di colore".

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

18 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Sputafuoco Bill12 Aprile 2019, 19:13 #1
"la Repubblicana Alexandria Ocasio-Cortez".
Per piacere non insultate il partito repubblicano in questo modo, AOC è una fanatica socialista che sta dalla parte opposta.
WarSide12 Aprile 2019, 21:28 #2
Quindi adesso i training set per gli algoritmi di ML ce li fornisce direttamente il governo?

Chi certifica che i dati usati non discriminino qualcuno?

Robe del genere fanno capire quante persone aprano la bocca senza avere competenze per farlo.
Obelix-it12 Aprile 2019, 22:13 #3
Sintomo solo di quanto sono idioti i moderni 'dem'...
WarSide12 Aprile 2019, 23:58 #4
Originariamente inviato da: Obelix-it
Sintomo solo di quanto sono idioti i moderni 'dem'...


Mica e' una questione di colore politico.

Il senatore che chiese alla Zucca come facesse soldi Fb e' repubblicano per dire.
Ragerino13 Aprile 2019, 09:27 #5
Il problema di fondo c'è. Nessuno sà come agisce la macchina che ha 'imparato da sola', fino a che non si va ad analizzare il codice. E cosi potrebbe benissimo discriminare le persone in base a cose che nella realtà non hanno alcun senso.
Io non mi sentirei molto tranquillo a sapere che tutti gli aspetti della mia vita vengono decisi da un computer. Se darmi o meno il mutuo, un prestito, la malattia che ho, la mia 'capacità' di delinquere. I computer non hanno capacità di pensiero, ed agiscono solo secondo la matematica. Non possono esserci eccezioni. Il problema è che nella realtà ci sono.
Rischiamo di ritrovarci in un mondo dove il carnefice diventa la fredda burocrazia delle macchine.
Avete presente Elysium? Ecco, uguale.
Bradiper13 Aprile 2019, 10:56 #6
Regarino ti quoto,ci sono valutazioni che vanno al di là della semplice matematica e variabili che non si possono tradurre in numero che darebbero un risultato diverso dal semplice calcolo. La vita non si può tradurre in un operazione per quanto ami i computer e il progresso.
s-y13 Aprile 2019, 11:43 #7
a prescindere dalla notizia in sè
vedo un futuro nemmeno troppo distante (al netto di 'autoreset' globali non del tutto escludibili) dove per gli 'individui tecnologici' ci saranno scontri più o meno etici del tutto simili a quelli che da lustri impreziosiscono la società 'moderna'

sarà da ridere, forse per non piangere
thresher325313 Aprile 2019, 12:48 #8
Originariamente inviato da: Obelix-it
Sintomo solo di quanto sono idioti i moderni 'dem'...

Eh perchè i "rep" sono tecnologicamente all'avanguardia invece.
giovanni6913 Aprile 2019, 13:01 #9
E secondo Microsoft, dovremmo essere generalmente entusiasti per l'uso massiccio dell'AI... notizia uscita lo stesso giorno, casualmente.

https://edge9.hwupgrade.it/news/mar...iale_81803.html
WarSide13 Aprile 2019, 13:50 #10
Originariamente inviato da: Ragerino
Il problema di fondo c'è. Nessuno sà come agisce la macchina che ha 'imparato da sola', fino a che non si va ad analizzare il codice. E cosi potrebbe benissimo discriminare le persone in base a cose che nella realtà non hanno alcun senso.
Io non mi sentirei molto tranquillo a sapere che tutti gli aspetti della mia vita vengono decisi da un computer. Se darmi o meno il mutuo, un prestito, la malattia che ho, la mia 'capacità' di delinquere. I computer non hanno capacità di pensiero, ed agiscono solo secondo la matematica. Non possono esserci eccezioni. Il problema è che nella realtà ci sono.
Rischiamo di ritrovarci in un mondo dove il carnefice diventa la fredda burocrazia delle macchine.
Avete presente Elysium? Ecco, uguale.


Nessun ignorante sa come agisce.
Per piacere, non parlate di cose che non conoscete per sentito dire.

Gli algoritmi di ML, che siano ad apprendimento supervisionato o non supervisionato, partono sempre da un dataset solitamente generato da umani.

Un algoritmo non discrimina, ma puo' accentuare quella che noi vediamo come discriminazione semplicemente perche' siamo noi esseri umani a discriminare ed a produrre dati che poi portano un algoritmo a dare una risposta che puo' non piacere.


Se sei afroamericano con un reddito medio/basso e non laureato, e' molto probabile che un banchiere (= persona in carne ed ossa) non ti presti $200,000. E' altrettanto probabile che tanti altri banchieri non ti prestino quei soldi.
La negazione del credito, una volta immessa nel sistema produce dei dati, questi dati sono poi digeriti da algoritmi decisionali.
L'algoritmo impara come comportarsi usando quei dati, quindi imperara' che un afroamericano che non e' andato al college ed ha un reddito <30k$/anno non deve ricevere un mutuo.
Adesso volete dirmi che il problema e' l'algoritmo?


Faccio un altro esempio: siete su amazon, cercate un regalino per la vs bambina. Vedete una bambola e la comprate. Come voi, anche tanti altri compreranno bambole, vestitinni rosa & co.

Un bel giorno questi dati vengono ingeriti da un algoritmo di raccomandazione e, in base a quei dati, amazon continuera' a suggerirvi vestitini da fatina, mini cucine, cicciobello & co.

Capite che non e' l'algoritmo a discriminare se non vi invita a comprare un microscopio, o il kit del piccolo chimico a vostra figlia.

Potrei andare avanti a fare esempi del genere per giorni.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^