L'algoritmo di previsione crimini è razzista: scoppia la polemica negli USA

L'algoritmo di previsione crimini è razzista: scoppia la polemica negli USA

Stando ad una nuova indagine condotta negli USA parte delle sentenze su casi di crimini violenti viene stabilita sulla base di un algoritmo di parte contro gli imputati di colore

di Nino Grasso pubblicata il , alle 16:01 nel canale Web
 

Secondo Cesare Lombroso il comportamento criminale era relativo alle caratteristiche anatomiche di un individuo. A caratterizzare la personalità dell'individuo deviato non c'erano tanto le esperienze vissute, come invece ha poi dimostrato la scienza moderna, ma secondo Lombroso i suoi comportamenti derivavano principalmente dalle caratteristiche fisiche. Quindi, l'inclinazione criminale era qualcosa di congenito, una patologia ereditaria, e poteva, anzi doveva, essere curata in terapia.

Le sue idee controverse sono state presto considerate alla base di un'ideologia razzista ma, secondo un nuovo report, non si discosta poi di molto l'approccio della giustizia americana basato su un algoritmo che misura "il risk assessment score", il punteggio di valutazione del rischio. Quando un imputato riceve una condanna il giudice può utilizzare diversi fattori per determinare una pena congrua per il crimine commesso. Uno di questi fattori è sempre più spesso il risk assessment score.

Si tratta di un numero che, in base ad alcuni calcoli automatizzati, ha lo scopo di individuare se l'imputato possa commettere un altro crimine nel futuro. Stando ad un'indagine condotta da ProPublica, tuttavia, gli algoritmi utilizzati che poi conducono al numero finale sono di parte e offrono risultati statisticamente negativi nei confronti degli afroamericani. Una condotta gravissima se si considera che quel semplice numero può influenzare molti aspetti della sentenza.

Cifre per la cauzione, piani di trattamento o periodo di carcere possono infatti essere stabiliti sulla base del responso dell'algoritmo. Quando viene rilevato un rischio più alto di recidiva l'imputato può ricevere una sentenza che serve a disincentivare futuri atti criminali. Il sistema è stato già accusato dal Procuratore Generale degli USA Eric Holder, che ha detto che "potrebbe esacerbare le disparità ingiustificate e ingiuste già fin troppo comuni nel sistema di giustizia penale USA e nella società".

Per verificare le affermazioni di Holder ProPublica ha analizzato i dati di oltre 7 mila imputati della Broward County, in Florida, in cui i punteggi di valutazione del rischio vengono generati da un software prodotto da Northpointe. In più lo studio ha rilevato che i punteggi generati riuscivano solo in poche circostanze a prevedere eventuali crimini violenti: "Solo circa il 20% di queste persone ha commesso un crimine dopo che l'algoritmo l'aveva previsto", scrive ProPublica.

Anche considerando tutti i casi di crimini, e non solo quelli violenti, l'algoritmo non è stato "più accurato di un lancio di moneta" nel determinare l'inclinazione dell'imputato a commettere un nuovo crimine. A preoccupare di più dello studio di ProPublica è la conferma delle affermazioni di Holder, con l'algoritmo che sembra discriminare gli imputati di colore. Dal report si legge che l'algoritmo falsifica in misura doppia i risultati di questi ultimi rispetto a quelli degli imputati bianchi.

Northpointe ha naturalmente contestato i risultati del report e ha sottolineato che la razza non è una caratteristica che l'algoritmo valuta in via diretta. Tuttavia ci sono alcuni fattori legati alla razza che influenzano il risultato di rischio finale, come ad esempio il livello di educazione, lo stato di occupazione ed altre circostanze sociali (amicizie, uso di droghe fra amici). Ma molte altre caratteristiche dell'algoritmo rimangono oscure perché private e non accessibili al pubblico.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

63 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
kamon24 Maggio 2016, 16:25 #1
Minority report incontra Salvini.
dado197924 Maggio 2016, 16:33 #2
Statisticamente gli afroamericani sono più poveri dei caucasici... nei grandi numeri se si è più poveri è più facile compiere crimini... cosa c'è di razzista? E' logica deduttiva.
Certo, ora dovremmo incominciare a discutere del fatto che è sbagliato che gli afroamericani siano più poveri... in effetti è sbagliato.
Ma questo non nega ciò che è attualmente.
Madcrix24 Maggio 2016, 16:47 #3
Credo che quando si tratta di giudicare e ci sono in ballo diritti civili di un individuo, qualsiasi elemento che prescinda dai fatti concreti (come questi algoritmi di predizione) siano un'oscenità e che in galera dovrebbero andarci quelli che li usano impattando sulla vita delle persone.
kamon24 Maggio 2016, 16:54 #4
Originariamente inviato da: Madcrix
Credo che quando si tratta di giudicare e ci sono in ballo diritti civili di un individuo, qualsiasi elemento che prescinda dai fatti concreti (come questi algoritmi di predizione) siano un'oscenità e che in galera dovrebbero andarci quelli che li usano impattando sulla vita delle persone.


Esattamente, soprattutto se si tratta di un qualcosa di pensato principalmente per il risparmio finanziario, perchè si tratta solo di questo... Allucinante.
cignox124 Maggio 2016, 16:58 #5
-Credo che quando si tratta di giudicare e ci sono in ballo diritti civili di un individuo, qualsiasi elemento che prescinda dai fatti concreti (come questi algoritmi di predizione) siano un'oscenità e che in galera dovrebbero andarci quelli che li usano impattando sulla vita delle persone.

I metodi statistici si usano ovunque. Esempio? Le assicurazioni per auto: in teoria pago meno di un napoletano perché la percentuale di incidenti a bolzano é molto bassa. Secondo te dovrei pagare come se abitassi a Napoli per evitare razzismi di sorta?

Poi, chiaro che se l'algoritmo é impreciso o usa pesi discutibili, va valutato di conseguenza. E chiaro pure che il giudice deve sapere perfettamente che il valore é statistico e non puó prescindere da una valutazione dell'individuo e la sua storia...
ClosingTime24 Maggio 2016, 17:00 #6
Senza prendere una posizione (anche se dal video è abbastanza evidente la disparità ma da questa frase:

"Quando viene rilevato un rischio più alto di recidiva l'imputato può ricevere una sentenza che serve a disincentivare futuri atti criminali"

capisco che allora l' algoritmo funziona, ha individuato un rischio più alto e ha permesso (tramite sanzioni e piani di trattamento) di evitare crimini futuri, no?
kamon24 Maggio 2016, 17:01 #7
Originariamente inviato da: cignox1
-Credo che quando si tratta di giudicare e ci sono in ballo diritti civili di un individuo, qualsiasi elemento che prescinda dai fatti concreti (come questi algoritmi di predizione) siano un'oscenità e che in galera dovrebbero andarci quelli che li usano impattando sulla vita delle persone.

I metodi statistici si usano ovunque. Esempio? Le assicurazioni per auto: in teoria pago meno di un napoletano perché la percentuale di incidenti a bolzano é molto bassa. Secondo te dovrei pagare come se abitassi a Napoli per evitare razzismi di sorta?

Poi, chiaro che se l'algoritmo é impreciso o usa pesi discutibili, va valutato di conseguenza. E chiaro pure che il giudice deve sapere perfettamente che il valore é statistico e non puó prescindere da una valutazione dell'individuo e la sua storia...


Quì non si tratta però di metterti o farti uscire di galera, mi pare ben diverso il caso.
OttoVon24 Maggio 2016, 17:30 #8
Non ne sappiamo abbastanza, dubito che ci sia la volontà di svantaggiare i non bianchi.

Come al solito non ho visto ispanici ed asiatici, vengono presi i neri come esempio nel video. Neanche un confronto tra bianco anglosassone e mediterraneo. Siamo ben più scuri.
Se ci fosse la volontà di testare il sw, potrebbero usare un volontario e cambiare il parametro sul colore della pelle.


cdimauro24 Maggio 2016, 17:35 #9
[I]"Secondo Cesare Lombroso il comportamento criminale era relativo alle caratteristiche anatomiche di un individuo. [...] Le sue idee controverse sono state presto [U]considerate alla base di un'ideologia razzista[/U]"[/I]

Non si capisce, quindi, per quale motivo sia ancora aperto il museo con le sue "opere"...
phicrand_635824 Maggio 2016, 17:36 #10
Originariamente inviato da: cignox1
I metodi statistici si usano ovunque. Esempio? Le assicurazioni per auto: in teoria pago meno di un napoletano perché la percentuale di incidenti a bolzano é molto bassa. Secondo te dovrei pagare come se abitassi a Napoli per evitare razzismi di sorta?


Il tuo esempio non è calzante a quello che si contesta a quell'algoritmo: sarebbe giusto se un tizio di origine napoletana che lavora e risiede a Bolzano pagasse quanto si paga a Napoli?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^