Facebook folosește inteligența artificială pentru a combate răspândirea terorismului

Facebook a anunțat într-o postare pe blog că AI-ul său devine mai bun în detectarea conținutului legat de terorism și, ulterior, în eliminarea acestuia. Personal, nu am avut niciodată experiența de a defila printr-un feed Facebook și de a da peste postări promovarea unor grupuri teroriste precum ISIS și Al Qaeda, dar îmi pot imagina cât de terifiant ar putea fi să vedea.

Facebook folosește inteligența artificială pentru a combate răspândirea terorismului

De-a lungul anilor Facebook a ridicat întrebări despre cât de responsabil este pentru reducerea postărilor de pe platforma sa, dar acum pare să fi făcut, în sfârșit, ceva important pentru a o opri.

Din punct de vedere istoric, Facebook s-a bazat pe utilizatorii săi pentru a raporta conținut care promovează terorismul. Cu toate acestea, acum folosește din ce în ce mai mult AI pentru a identifica postările și a le elimina în decurs de o oră – ceva care va fi pe plac critici care cred că gigantul rețelelor sociale nu face suficient pentru a lupta împotriva răspândirii materialelor legate de terorism pe net.

Un astfel de critic, Hans-Georg Maassen, șeful Agenției de Informații Interne din Germania, a dat vina pe Facebook pentru răspândirea postărilor de ură și știri false, acuzând compania că este o „a cincea stare care face pretenții, dar până acum” nu a vrut „să ia niciun fel social responsabilitate."

Postarea pe blog a Facebook pare să dorească să schimbe narațiunea și să arate țărilor sceptice precum Germania că Facebook face, de fapt, ceva.

CITEȘTE URMĂTORUL: Facebook recunoaște că s-a jucat cu emoțiile utilizatorilor

„Astăzi 99,9% din teroarea ISIS și Al Quaeda conținutul pe care îl eliminăm de pe Facebook este conținut pe care îl detectăm înainte ca cineva din comunitatea noastră să ni-l semnaleze și, în unele cazuri, înainte ca acesta să fie difuzat pe site”, au scris Monika Bickert, șeful managementului politicilor globale și Brian Fishman, șeful politicii de combatere a terorismului, în postarea de pe blog. „Facem acest lucru în primul rând prin utilizarea sistemelor automate precum potrivirea foto și video și învățarea automată bazată pe text. Odată ce suntem conștienți de un conținut terorist, eliminăm 83% din copiile încărcate ulterior în decurs de o oră de la încărcare.”

În prezent, algoritmul vizează numai conținutul de la Al Qaeda și ISIS, deoarece AI a fost instruit să învețe structurile propozițiilor și funcțiile lingvistice doar de la aceste două organizații. Deși acesta este încă un progres, ridică întrebări despre unde se află conținutul altor organizații extremiste regionale, cum ar fi EDL și Britain First în Marea Britanie.

Vezi legate 

Facebook atinge 2 miliarde de utilizatori, în timp ce se luptă cu ceea ce a devenit
Facebook își învață AI să găsească oameni cu risc de sinucidere

Facebook susține că aceste organizații regionale nu pot fi vizate doar folosind platforma sa AI. Pentru ca AI-ul Facebook să înțeleagă care sunt aceste postări, experții de pe forumul de colaborare al Facebook vor trebui să identifice postările extremiste de pe platforma lor și să le semnaleze.

În iunie, Facebook, Microsoft, Twitter și YouTube au format Global Internet Forum to Counter Terorism. Colaborarea dintre giganții rețelelor sociale a avut ca scop stoparea răspândirii terorismului și a extremismului pe platformele lor. Prin intermediul acestui grup, Facebook și colaboratorii săi caută să detecteze schimbări în modul în care organizațiile teroriste folosesc rețelele sociale pentru a răspândi propagandă și apoi acționează în funcție de aceste constatări.

Numai timpul va spune dacă vreunul dintre acestea va reduce efectiv răspândirea materialului legat de teroare pe site. Dar să sperăm că vor continua să-și accepte datoria de a promova un mediu online fără postări urâtoare și conținut extremist.