Oasys, nel Regno Unito un sistema IA ha aiutato la magistratura nelle sue valutazioni, ma oggi va reso più trasparente

Oasys, nel Regno Unito un sistema IA ha aiutato la magistratura nelle sue valutazioni, ma oggi va reso più trasparente

I sistemi giudiziari di diversi paesi utilizzano tecnologie di intelligenza artificiale si basano su algoritmi di apprendimento automatico con lo scopo di prevedere il rischio di recidiva. Ma non tutti sono convinti del fatto che utilizzarli sia completamente privo di rischi

di pubblicata il , alle 16:31 nel canale Web
 

Gli algoritmi, intesi come una successione di istruzioni per risolvere un problema e ottenere un preciso risultato a partire da un certo numero di dati iniziali, determinano molto delle nostre vite, e sono destinati a diventare sempre più preponderanti. Una ricerca su Google ci instrada verso una certa "verità" piuttosto che un'altra, mentre l'algoritmo di Amazon ci dice, molto spesso proficuamente, quali sono i successivi acquisti che dovremmo fare. Gli algoritmi che gestiscono la visualizzazione dei messaggi pubblicitari ci consigliano quale deve essere la nostra successiva meta turistica, e potremmo andare avanti ancora per un po'.

Il punto è che tutti questi algoritmi prendono le loro decisioni sulla base di una mole di dati che ha acquisito dimensioni mai viste prima d'ora. La morale della favola è che veramente possono prendere le decisioni al posto nostro, e potenzialmente farlo in maniera migliore rispetto a quanto potremmo fare noi stessi. E tutto questo è destinato a migliorare man mano che ci saranno ancora più dati e maggiore potenza di calcolo.

Oasys

Ma è eticamente giusto? E, soprattutto, se estendessimo questo concetto al sistema giudiziario potrebbero sorgere ulteriori complicazioni? È quanto si chiede The Conversation, con un interessante excursus sulla storia di Oasys, Offender Assessment System, il database intelligente a disposizione dell'Home Office del Regno Unito che è stato reso funzionante nel 2001 (qui la documentazione ufficiale).

Oasys è progettato per prevedere il rischio di recidiva e quindi aiutare la magistratura britannica a fare le dovute valutazioni giudiziarie, principalmente sull'opportunità a concedere la libertà a chi ha commesso reati e ha scontato la propria pena. Gli algoritmi su cui è basato Oasys usano informazioni ottenute dagli ufficiali di polizia durante colloqui e interrogatori con gli accusati. Il database si compone così di dati inerenti indirizzi di residenza, fedine penali, livello di informazione, stile di vita, lavoro, stabilità emotiva, attitudine al crimine e altro ancora.

Su queste basi, le tecnologie di apprendimento automatico danno dei suggerimenti a proposito di concessione della cauzione, sui casi di immigrazione, tipi di condanne che le persone devono affrontare, classificazioni di sicurezza carceraria e assegnazioni a programmi di riabilitazione. Aiutano anche a decidere come le persone condannate per reati dovrebbero essere sorvegliate e reinserite nella comunità e se possono o meno essere rilasciate anticipatamente.

In questi due decenni, agli scienziati che non rientrano nei ruoli governativi non è stato consentito l'accesso ai dati alla base di Oasys per poter analizzare in modo indipendente il suo funzionamento e valutarne l'accuratezza. In altri termini, non è possibile appurare se il meccanismo porti effettivamente a un minor numero di reati o di nuove condanne, o se - invece - abbia l'effetto opposto.

Terminator

La mancanza di trasparenza riguardo i sistemi di intelligenza artificiale è un discorso che va applicato su scala generale. I loro complessi processi decisionali possono trasformarsi in una scatola nera, troppo oscura per essere svelata senza conoscenze tecniche avanzate. Inoltre, gli stessi responsabili degli algoritmi possono facilmente perderne il controllo, visto l'elevato numero di fattori presi in considerazione da questi sistemi. L'apprendimento automatico, per sua stessa definizione, è qualcosa che si evolve nel corso del tempo, andando a modificarsi anche considerevolmente con il continuo flusso di nuovi dati.

I fautori del sistema Oasys ritengono che gli algoritmi di intelligenza artificiale siano strumenti scientifici più oggettivi perché sono standardizzati e questo aiuta a ridurre l'incidenza dei pregiudizi umani nelle valutazioni e nel processo decisionale. Tuttavia, resta il fatto che l'impossibilità di accedere ai dati e al meccanismo che regola il funzionamento degli algoritmi sollevi problemi di trasparenza.

Il Ministero della Giustizia britannico, tuttavia, ha fino ad oggi impedito la valutazione esterna perché porrebbe implicazioni sulla protezione dei dati richiedendo l'accesso a informazioni sensibili personali, comprese caratteristiche protette come razza, etnia e genere.

La necessità di un'adeguata regolamentazione dei sistemi di intelligenza artificiale, d'altronde, è stata richiesta da diversi organismi fuori dal Regno Unito e dentro, come nel caso dell'Ofcom, l'autorità competente e regolatrice indipendente per le società di comunicazione nel Regno Unito. "Il sistema giudiziario è vasto e complesso e la tecnologia è necessaria per gestirlo. Ma è importante ricordare che ci sono persone dietro i numeri" conclude l'articolo su The Conversation.

1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
aldo87mi27 Luglio 2023, 16:51 #1
L'UK sta dieci anni avanti rispetto all'Italia in campo di IA e di IT. Posso solo dire che ad esempio qui le IA già da tempo sono usate anche in grandi catene di negozi come Morrison's, Tesco, Primark, Sports Direct nell'assistenza ai clienti in loco.
Per non parlare delle auto a guida autonoma, i cabs senza piloti sono già da anni operativi qui in UK e funzionano benissimo

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^