Opfordrer til vagthund for at forhindre AI-diskrimination

En vagthund bør oprettes til at holde øje med kunstig intelligens og andre automatiserede systemer for at undgå diskrimination og dårlig beslutningstagning, ifølge en gruppe eksperter.

Opfordrer til vagthund for at forhindre AI-diskrimination

EN rapport af et team på Alan Turing Institute i London og University of Oxford opfordrer til, at et dedikeret uafhængigt organ skal være oprettet for at undersøge og overvåge, hvordan disse systemer træffer beslutninger, hvoraf mange kan have stor indflydelse på en persons levebrød.

På grund af den økonomiske værdi af AI-algoritmer er de tekniske detaljer bag disse systemer en nøje bevogtet hemmelighed i industrien og diskuteres sjældent offentligt. Imidlertid vil et uafhængigt organ være i stand til at repræsentere de personer, der føler, at de er blevet diskrimineret af en AI-tjeneste, ifølge forskerne.

Se relateret 

Brains vs Artificial Intelligence: AI smadrer menneskeheden endnu en gang
Regeringen er ikke klar til virkningen af ​​kunstig intelligens, hævder parlamentsmedlemmer
Hvad er AI? Ti ting, du skal vide om fremtiden for kunstig intelligens

"Det, vi gerne vil se, er en betroet tredjepart, måske et regulerings- eller tilsynsorgan, der ville have beføjelsen til at granske og revisionsalgoritmer, så de kunne gå ind og se, om systemet rent faktisk er gennemsigtigt og retfærdigt,” sagde forsker Sandra Wachter.

Holdet, som også omfatter Brent Mittelstadt og Luciano Floridi, hævder, at selvom folk er det i stand til at udfordre eventuelle mangelfulde beslutninger truffet af AI, nuværende beskyttelseslove er forældede og ineffektiv.

Den britiske databeskyttelseslov giver enkeltpersoner mulighed for at udfordre AI-ledede beslutninger, men virksomheder behøver ikke at frigive oplysninger, som de betragter som en forretningshemmelighed. Dette inkluderer i øjeblikket specifikt, hvordan en AI-algoritme er nået frem til den beslutning, den har truffet, og efterlader folk i mørket hvorfor de kan have fået afslag på en kreditkortansøgning eller ved en fejl blevet fjernet fra valglisten.

Ny Generel databeskyttelsesforordning (GDPR) lovgivning vil ankomme i 2018 på tværs af europæiske medlemslande og Storbritannien, hvilket lover at tilføje større gennemsigtighed til AI-beslutningstagning. Men forskerne hævder, at det risikerer at blive "tandløs" og ikke vil give potentielle ofre tilstrækkelig retssikkerhed.

"Der er en idé om, at GDPR vil levere ansvarlighed og gennemsigtighed for AI, men det er slet ikke garanteret," sagde Mittelstadt. "Det hele afhænger af, hvordan det fortolkes i fremtiden af ​​nationale og europæiske domstole."

En tredjepart kan skabe en balance mellem virksomhedens bekymringer over lækkende forretningshemmeligheder og retten for enkeltpersoner til at vide, at de er blevet behandlet retfærdigt, ifølge rapporten.

Rapporten så på sager i Tyskland og Østrig, som anses for at have de mest robuste love omkring brugen af ​​AI-styret beslutningstagning. I de fleste tilfælde skulle virksomhederne kun udlevere generel information om algoritmens beslutningsproces.

"Hvis algoritmerne virkelig kan påvirke folks liv, har vi brug for en form for undersøgelse, så vi kan se, hvordan en algoritme faktisk nåede en beslutning," sagde Wachter.

Microsofts nylige forsøg på at udvikle kunstig intelligens på det sociale medieområde endte i katastrofe, da dets Tay-chatbot, designet til at efterligne samtaler, blev manipuleret til tweeting-beskeder såsom "Hitler gjorde intet forkert".

I december 2016 opstod en pinlig hændelse, da et AI-drevet identifikationssystem afviste en pasansøgning fra en 22-årig asiatisk mand, fordi den besluttede, at han havde sit lukkede øjne.