Algoritmer bør reguleres, siger Labour-parlamentsmedlem

Er det tid til at regulere algoritmer? Et Labour-parlamentsmedlem mener det - og hun er ikke den eneste, der rejser bekymringer om algoritmisk ansvarlighed.

Algoritmer bør reguleres, siger Labour-parlamentsmedlem

Chi Onwurah, arbejdsminister for skyggeindustrien, fortalte The Guardian at algoritmer skal reguleres på samme måde som deres resultater er.

"Algorithmer er ikke hævet over loven," sagde hun til avisen. Hun tilføjede: "Resultaterne af algoritmer er reguleret - de virksomheder, der bruger dem, skal overholde ansættelses- og konkurrencelovgivningen."

Onwurah indrømmede, at det ikke er let at regulere algoritmer, når de mangler gennemsigtighed, og sagde, at spørgsmålet vil blive undersøgt i et papir fra Labour, der kommer i det nye år.

Den potentielle udfordring for Silicon Valleys røg og spejle følger presset på Google og Facebook til adressere syndfloden af ​​"falske nyheder" udbredt af begge tjenester, og efterhånden som flere mennesker finder arbejde i den såkaldte gig-økonomi, hvor deres beskæftigelse er påvirket af algoritmer skabt af Uber.

Sådanne problemer kræver algoritmisk ansvarlighed, akademikere har argumenteret. Spørgsmålet er, hvordan man giver ansvar for noget, der i sagens natur er forvirrende og oftere end ikke den "hemmelige sovs" bag en virksomheds succes.

Se relateret 

Labours Tom Watson opfordrer regeringen til at undersøge robotters indvirkning på job

”Algorithmer er et område, der i princippet bør reguleres, da det er måder at kategorisere mennesker, ting og handlinger og optælling af resultaterne,” sagde Nick Couldry, professor i medier, kommunikation og social teori ved LSE. "Det betyder meget, hvad der tælles, og hvordan resultaterne behandles."

Men han tilføjede, at behovet for regulering afhænger af funktionen. "Jeg bekymrer mig måske meget mindre om algoritmer, der ændrer mine købs- eller lytteanbefalinger modtage, end de påvirker, hvad der fremstår for mig som nyheder, eller påvirker, hvordan jeg bliver vurderet af andre,” han fortalte vores søster side, IT Pro.

"Organisationer bør altid tage ansvar for, hvordan de repræsenterer verden, og hvordan de repræsenterer mennesker, og det er ikke anderledes," tilføjede han. "Det er ikke så meget et spørgsmål om gennemsigtighed (det kan være svært for lægfolk at forstå, hvordan en algoritme fungerer, selvom de bliver fortalt) som ansvarlighed. Og underliggende det, spørgsmålet om, hvorvidt den information, som algoritmen fungerer på, skal indsamles i første omgang.”

Med andre ord kan algoritmisk ansvarlighed på nogle måder komme tilbage til databeskyttelse. Dr. Alison Powell, adjunkt og direktør for medier og kommunikation ved LSE, bemærker, at de generelle data Beskyttelsesforordningen foreskriver, at funktionen af ​​en algoritme skal "gøres forståelig for dem, de indflydelse."

Men hun sagde, at funktionel gennemsigtighed måske ikke er nok, og det kan være nødvendigt, at træningsdata og andre elementer er tilgængelige til undersøgelse. ”Det er muligt at regulere algoritmer ex post – altså i forhold til deres resultater – men det er svært i sammenhænge, ​​hvor maskinlæring eller andet teknikker med kunstig intelligens bruges, da der kan være en kløft mellem påstandene i begyndelsen af ​​en proces og resultaterne i slutningen,« siger hun. forklaret. "Computervidenskabsforskere har foreslået en strategi om 'proceduremæssig regelmæssighed' for at løse dette. Denne proces forsøger at gøre trinene i den algoritmiske behandling mere regelmæssige, så der er måder at auditere på og sikre, at processen ikke diskriminerer mennesker uretfærdigt."

Billede: Politikudveksling, brugt under Creative Commons