Richiede un cane da guardia per prevenire la discriminazione dell'IA

Secondo un gruppo di esperti, dovrebbe essere creato un cane da guardia per tenere sotto controllo l’intelligenza artificiale e altri sistemi automatizzati per evitare discriminazioni e processi decisionali inadeguati.

Richiede un cane da guardia per prevenire la discriminazione dell'IA

UN rapporto da un team dell’Alan Turing Institute di Londra e dell’Università di Oxford chiede la creazione di un organismo indipendente dedicato istituito per indagare e monitorare il modo in cui questi sistemi prendono decisioni, molte delle quali possono avere un impatto significativo su quelle di una persona mezzi di sostentamento.

A causa del valore economico degli algoritmi di intelligenza artificiale, i dettagli tecnici alla base di questi sistemi sono un segreto gelosamente custodito all’interno del settore e vengono raramente discussi pubblicamente. Tuttavia, secondo i ricercatori, un organismo indipendente sarà in grado di rappresentare coloro che si sentono discriminati da un servizio di intelligenza artificiale.

Vedi correlati 

Cervelli contro Intelligenza Artificiale: l'intelligenza artificiale distrugge ancora una volta l'umanità
Il governo non è pronto per l’impatto dell’intelligenza artificiale, sostengono i parlamentari
Cos'è l'intelligenza artificiale? Dieci cose da sapere sul futuro dell'intelligenza artificiale

“Ciò che vorremmo vedere è una terza parte fidata, forse un organismo di regolamentazione o di supervisione, che abbia il potere di controllare e algoritmi di audit in modo che possano entrare e vedere se il sistema è effettivamente trasparente ed equo”, ha affermato la ricercatrice Sandra Osservatore.

Il team, che comprende anche Brent Mittelstadt e Luciano Floridi, sostiene che, sebbene le persone lo siano in grado di contestare qualsiasi decisione errata presa dall’IA, le attuali leggi di protezione sono obsolete e inefficiente.

Il Data Protection Act del Regno Unito consente alle persone di contestare le decisioni guidate dall’intelligenza artificiale, tuttavia le aziende non sono obbligate a rilasciare informazioni che considerano un segreto commerciale. Ciò attualmente include specificamente il modo in cui un algoritmo di intelligenza artificiale è arrivato alla decisione presa, lasciando le persone all’oscuro sul motivo per cui la richiesta di una carta di credito potrebbe essere stata respinta o essere stati erroneamente cancellati dalle liste elettorali.

Nuovo Normativa generale sulla protezione dei dati (GDPR). arriverà nel 2018 negli Stati membri europei e nel Regno Unito, promettendo di aggiungere maggiore trasparenza al processo decisionale sull’IA. Tuttavia, i ricercatori sostengono che corre il rischio di essere “senza denti” e di non dare alle potenziali vittime sufficiente certezza giuridica.

“C’è l’idea che il GDPR garantirà responsabilità e trasparenza per l’intelligenza artificiale, ma ciò non è affatto garantito”, ha affermato Mittelstadt. “Tutto dipende da come verrà interpretato in futuro dai tribunali nazionali ed europei”.

Secondo il rapporto, una terza parte potrebbe creare un equilibrio tra le preoccupazioni dell’azienda riguardo alla fuga di segreti commerciali e il diritto degli individui a sapere di essere stati trattati equamente.

Il rapporto ha esaminato i casi di Germania e Austria, che si ritiene abbiano le leggi più solide sull’uso del processo decisionale guidato dall’intelligenza artificiale. Nella maggior parte dei casi, le aziende dovevano fornire solo informazioni generali sul processo decisionale dell’algoritmo.

“Se gli algoritmi possono davvero influenzare la vita delle persone, abbiamo bisogno di una sorta di controllo in modo da poter vedere come un algoritmo ha effettivamente raggiunto una decisione”, ha affermato Wachter.

Il recente tentativo di Microsoft di sviluppare l’intelligenza artificiale nello spazio dei social media si è concluso in un disastro quando il suo chatbot Tay, progettato per imitare le conversazioni, è stato manipolato per twittare messaggi come "Hitler non ha fatto nulla di male".

Nel dicembre 2016 si è verificato un incidente imbarazzante con un sistema di identificazione basato sull’intelligenza artificiale ha rifiutato la richiesta di passaporto di un asiatico di 22 anni, perché ha deciso che aveva il suo occhi chiusi.