Facebook bruger kunstig intelligens til at bekæmpe spredningen af ​​terrorisme

Facebook har meddelt i et blogindlæg at dens AI bliver bedre til at opdage terrorrelateret indhold og efterfølgende fjerne det. Personligt har jeg aldrig haft oplevelsen af ​​at scrolle gennem et Facebook-feed og snuble over opslag at fremme terrorgrupper som ISIS og Al Qaeda, men jeg kan forestille mig, hvor skræmmende det kunne være at se.

Facebook bruger kunstig intelligens til at bekæmpe spredningen af ​​terrorisme

I årenes løb Facebook har stillet spørgsmålstegn ved, hvor ansvarligt det er for at begrænse posterne på sin platform, men nu ser det ud til, at det endelig har gjort noget bemærkelsesværdigt for at stoppe det.

Historisk set har Facebook stolet på, at sine brugere rapporterer terrorfremmende indhold. Men det bruger nu i stigende grad AI til at identificere indlæg og fjerne dem inden for en time – noget der vil glæde kritikere, der mener, at den sociale mediegigant ikke gør nok for at bekæmpe spredningen af ​​terrorrelateret materiale online.

En sådan kritiker, Hans-Georg Maassen, Tysklands chef for Domestic Intelligence Agency, beskyldte Facebook for spredningen af ​​hadefulde opslag og falske nyheder, der beskylder virksomheden for at være en "femte ejendom, der fremsætter krav, men indtil nu" ikke har ønsket "at tage nogen social ansvar."

Facebooks blogindlæg ser ud til at ville ændre fortællingen og vise skeptiske lande som Tyskland, at Facebook i virkeligheden gør noget.

LÆS NÆSTE: Facebook indrømmer, at det rodede med brugernes følelser

"I dag 99,9% af ISIS og Al Quaeda-relaterede terror indhold, vi fjerner fra Facebook, er indhold, vi registrerer, før nogen i vores fællesskab har markeret det til os, og i nogle tilfælde før det går live på webstedet", skrev Monika Bickert, chef for Global Policy Management og Brian Fishman, chef for Counterterrorism Policy, i blogindlægget. "Det gør vi primært gennem brug af automatiserede systemer som foto- og videomatching og tekstbaseret maskinlæring. Når vi er opmærksomme på et stykke terrorindhold, fjerner vi 83 % af de efterfølgende uploadede kopier inden for en time efter upload."

I øjeblikket er algoritmen kun rettet mod indhold fra Al Qaeda og ISIS, da AI er blevet trænet til at lære sætningsstrukturer og sproglige funktioner udelukkende fra disse to organisationer. Selvom det stadig er fremskridt, rejser det spørgsmål om, hvor indholdet fra andre regionale ekstremistiske organisationer ligger, såsom EDL og Britain First i Storbritannien.

Se relateret 

Facebook rammer 2 milliarder brugere, mens det kæmper med, hvad det er blevet
Facebook lærer sin AI at finde personer, der er i risiko for selvmord

Facebook hævder, at disse regionale organisationer ikke kun kan målrettes ved hjælp af deres AI-platform. For at få Facebooks AI til at forstå, hvad disse opslag er, skal eksperter fra Facebooks samarbejdsforum identificere de ekstremistiske opslag på deres platform og markere dem.

Tilbage i juni dannede Facebook, Microsoft, Twitter og YouTube Global Internet Forum to Counter Terrorism. Samarbejdet mellem de sociale netværksgiganter havde til formål at standse spredningen af ​​terrorisme og ekstremisme på deres platforme. Gennem denne gruppe søger Facebook og dets samarbejdspartnere at få øje på ændringer i, hvordan terrororganisationer bruger sociale medier til at sprede propaganda og derefter reagere på disse resultater i overensstemmelse hermed.

Kun tiden vil vise, om noget af dette faktisk vil bremse spredningen af ​​terrorrelateret materiale på hjemmesiden. Men lad os håbe, at de fortsætter med at acceptere deres pligt til at skabe et onlinemiljø fri for hadefulde indlæg og ekstremistisk indhold.