La polizia di Durham si rivolge all'IA per le sentenze sulla custodia

La polizia di Durham sta pianificando di utilizzare un'intelligenza artificiale per aiutare gli agenti a prendere decisioni sull'opportunità di tenere in custodia i sospetti.

La polizia di Durham si rivolge all'IA per le sentenze sulla custodia

Lo strumento di valutazione del rischio del danno (HART) è stato addestrato sui registri della polizia di Durham risalenti al 2008 2012 e utilizza queste informazioni per valutare se un sospettato presenta un rischio basso, medio o alto offensivo.

Il sistema è stato sperimentato nel 2013 e gli esiti delle sue decisioni sono stati monitorati nei due anni del procedimento. I ricercatori hanno scoperto che le previsioni HART per i sospetti a basso rischio erano giuste il 98% delle volte, mentre le previsioni per i sospetti ad alto rischio erano giuste l’88% delle volte.

Durante questo periodo di prova, l’intelligenza artificiale non è stata utilizzata per influenzare le decisioni degli agenti. Ma parlando con la BBC, Sheena Urwin, capo della giustizia penale presso la Durham Constabulary, ha detto che immaginava che sarebbe diventato uno strumento attivo "nei prossimi due o tre mesi".

Per prendere una decisione sul livello di rischio di un sospettato, Hart tiene conto di considerazioni quali la gravità del presunto crimine e i precedenti penali. Attualmente si tende verso una prospettiva cauta, il che significa che è più probabile che un sospetto venga classificato come medio o alto – non farebbe alcun favore alla percezione di HART se iniziasse a rilasciare criminali pericolosi.

Una grande preoccupazione è che, per quanto neutrali possano sembrare, gli algoritmi tendono a essere influenzati dalle mani umane che li realizzano. L'anno scorso ampiamente citato ProPublica articolo ha rivelato come un software paragonabile a HART fosse prevenuto nei confronti dei neri. Garantire che i pregiudizi umani non si facciano strada nell’intelligenza artificiale è un compito difficile, che attualmente si trova ad affrontare ampie fasce della comunità dell’intelligenza artificiale.

Vedi correlati 

Gli architetti insegnano all’intelligenza artificiale a stampare le città
Il fondatore di Google DeepMind sul futuro dell’intelligenza artificiale: “Come esseri umani, dobbiamo rimanere completamente aggiornati”
Il governo non è pronto per l’impatto dell’intelligenza artificiale, sostengono i parlamentari

In termini di HART, l’intelligenza artificiale tiene conto di elementi come il genere e il codice postale, anche se i suoi sviluppatori affermano che questi aspetti non verranno utilizzati da soli per prendere decisioni. “La semplice residenza in un determinato codice postale non ha un impatto diretto sul risultato, ma deve invece essere combinata con tutti gli altri predittori in migliaia di modi diversi prima che venga raggiunta una conclusione finale prevista”, hanno dichiarato i creatori di HART a un’inchiesta parlamentare sull’algoritmo il processo decisionale.

Il piano è quello di utilizzare l’intelligenza artificiale in un ruolo consultivo in una selezione casuale di casi. Se avrà successo, HART potrebbe essere utilizzato per una valutazione del rischio su più di tre livelli. Parlando alla BBC, il professor Lawrence Sherman – direttore del Centre for Evidence-Based Policing dell’Università di Cambridge – ha affermato che esiste la possibilità di utilizzare l’intelligenza artificiale per aiutare decidere per quanto tempo un sospettato dovrebbe essere tenuto in custodia, se dovrebbe essere rilasciato su cauzione con un'accusa o se dovrebbe essere rilasciato dopo che è stata emessa un'accusa fatto.

Tutto ciò ha carattere consultivo, ma solleva inevitabilmente interrogativi su quanto lontano potrebbero spingersi le decisioni guidate dall’intelligenza artificiale nell’ambito delle attività di polizia. I giudizi delle macchine sarebbero più accurati o mancano della conoscenza umana e soggettiva di un ufficiale esperto?