Facebooks algoritmer "lader annoncører direkte målrette mod racister"

Facebook, som jeg har skrevet før, er en virksomhed, der oplever et stort antal vokseværk. Det kan forventes af enhver klub, der tæller næsten en tredjedel af planeten blandt sine medlemmer - du kan ikke forvente, at de alle repræsenterer dine værdier.

Facebooks algoritmer

Alligevel er det ikke et godt udseende, når din indtægtsmodel gør det dumt nemt at sprede hadefuld tale til et publikum, du ved vil være modtageligt. Dette er det problem, Facebook skal tage stilling til, efter en ProPublica efterforskning afsløret, at det kunne vise sponsorerede Facebook-annoncer direkte i tidslinjerne for mennesker med udtrykket "jødehader" i deres bio.facebooks_algoritmer_lad_annoncører_direkte_målrette_racister

Publikationen betalte $30 for at målrette mod personer, der var interesserede i emnerne "jødehader" (2.274 personer), "hvordan at brænde jøder" (to personer), "Historien om, hvorfor jøder ødelægger verden" (én person) og "Hitler gjorde intet forkert" (15 mennesker). At opdage denne koalition af bigotry var ikke nok til at lave et reklamesegment, det sociale netværks algoritme foreslog, at

ProPublica målrette personer med interesse i den anden ændring, som ville øge den med sunde 119.000 mennesker. Det andet ændringsforslag, for de uvidende, vedrører retten til at bære våben - og det faktum, at virksomhedens algoritme foreslog gruppen, antyder, at der er masser af mennesker i Venn-diagrammet for antisemitter og dem, der bærer deres entusiasme for våbenejerskab på deres ærmer. Til sidst, ProPublica besluttede sig for at bruge fans af det tyske Schutzstaffel og det nazistiske parti til deres reklamesegment, hvilket øgede det med yderligere 5.643 personer.

Mens ProPublica satte en bevidst intetsigende annonce ud til disse mennesker (den blev godkendt af Facebook inden for 15 minutter), er risikoen, at andre kunne bruge det sociale netværks hidtil usete evne til at målrette folk ud fra deres interesser til at sprede propaganda eller organisere yderste højrefløj stævner. Som det var, ProPublica lykkedes at få 101 personer til at klikke sig igennem for en stort set umålrettet besked.

Facebook, til sin kredit, var hurtig til at fjerne de stødende tags så snart ProPublica rapporterede sine resultater, og virksomheden var ivrig efter at påpege, at den var algoritmisk genereret. Det sagt, Skifer fulgte undersøgelsen op med en af ​​deres egne og fandt lige så bekymrende kategorier for annoncører at udnytte:facebooks_algoritmer_lad_annoncører_direkte_målrette_racister_2

Se relateret 

En gave til Gab? Google starter social netværksapp til hadefulde ytringer
Facebook rammer 2 milliarder brugere, mens det kæmper med, hvad det er blevet
Facebook har en ny mission statement, men handlinger taler højere end ord

Facebook har nu fjernet annoncørers mulighed for at målrette folk baseret på "selvrapporteret målrettet felter", hvilket burde føre til mere desinficerede muligheder - selvom det formentlig stadig er muligt at målrette ved brug af hundefløjte-vilkår hvis du ved, hvilke lovlige sætninger du skal bruge.

Facebook udsendt en fuldstændig erklæring om sagen, som hævder "hadefulde ytringer og diskriminerende reklamer ikke har nogen plads på vores platform", og at "samfundets sikkerhed er "kritisk for vores mission." Som sådan "fjerner vi disse selvrapporterede målretningsfelter, indtil vi har de rigtige processer på plads for at forhindre dette problem".

Det er alt godt, men det behandler problemet som et problem med reklamer og algoritmer. Det siger ikke noget om de mennesker, der bærer deres antisemitisme stolt på ærmerne på Facebooks sider. At kunne reklamere direkte til racister er klart et sociologisk problem, hvis det bliver udnyttet, men det ville være et ikke-problem, hvis Facebook ikke tillod sådanne mennesker at stolt selvidentificere sig uden eftervirkninger. At antyde, at dette blot er en algoritmisk fejl, er at begrave ledet noget – føj det til Facebooks problembunke.