Facebook dokáže nájsť akty, ale nie nenávistné prejavy

Facebook sa stále vyrovnáva s celou touto dohodou o transparentnosti. Sociálna sieť včera zverejnila svoju vôbec prvú verejnosť štvrťročná správa o tom, ako presadzuje komunitárne štandardy, a zdalo sa, že jej snahy o moderovanie boli pomerne efektívne. No zatiaľ čo sa zdalo, že sociálna sieť dokáže za prvé tri mesiace roku 2018 úspešne vyradiť 583 miliónov falošných účtov, v správe sa objavil jeden do očí bijúci detail.

Facebook dokáže nájsť akty, ale nie nenávistné prejavy

Zdá sa, že AI spoločnosti s automatickým nahlasovaním funguje dobre na detekciu falošných účtov, spamu a dokonca aj nahoty, zdá sa však, že má veľa problémov s detekciou nenávistných prejavov na platforme.

V správe Facebook uviedol, že jeho nástroje založené na AI dokázali odstrániť 98,5 % falošných účtov a takmer 100 % spamu bez toho, aby používatelia nahlásili obsah. AI sa dokonca podarilo označiť 99,5 % teroristickej propagandy a 95,8 % nahoty a sexuálnej aktivity dospelých. Zdá sa, že pri odhaľovaní grafického násilia bola menej úspešná, podarilo sa jej nájsť iba 85,6 % obsahu, ale toto číslo je obrovské v porovnaní s množstvom nenávistných prejavov, ktoré AI zistila. Podľa správy bola AI schopná označiť len 38 % nenávistných prejavov.

„V prípade nenávistných prejavov naša technológia stále nefunguje tak dobre,“ povedal Guy Rosen, viceprezident produktového manažmentu, priznáva na facebookovom blogu.

„Čiastočne je to tak, že technológie ako umelá inteligencia, hoci sú sľubné, sú ešte roky vzdialené od účinnosti pre väčšinu zlého obsahu, pretože kontext je taký dôležitý,“ dodáva. "Umelá inteligencia ešte stále nie je dosť dobrá na to, aby určila, či niekto presadzuje nenávisť alebo opisuje, čo sa mu stalo, aby mohli zvýšiť povedomie o tomto probléme."

Pozri súvisiace 

Facebook pozastavuje stovky aplikácií pre zneužitie používateľských údajov
Facebook chce vaše akty... ale plánuje ich použiť na boj proti pornografii z pomsty

Jazyk je výrazne nuansovaný, takže trénovať AI, aby rozpoznala niečo také zložité, ako sú nenávistné prejavy, ktorá sa môže prezentovať mnohými spôsobmi, bude náročná úloha bez použitia človeka moderovanie. Na rozdiel od spamu a falošných účtov a dokonca aj nahoty a teroristickej propagandy – ktoré možno odhaliť pomocou rozpoznávania obrázkov – je oveľa ťažšie kontrolovať nenávistné prejavy.

Ako povedal Timothy Carone, prednášajúci na univerzite v Notre Dame AP: „Nie je prekvapujúce, že automatické programy Facebooku majú najväčšie ťažkosti pri hľadaní rozdielov medzi prípustnými názormi a opovrhnutiahodným jazykom, ktorý prekračuje hranice.

„Je to ako snažiť sa nájsť ekvivalent medzi kričaním ‚Páľ!‘ v preplnenom divadle neexistuje nič a je ekvivalentné povedať niečo, čo je nepríjemné, ale kvalifikuje sa ako bezplatné reč.“

Jedným z riešení by bolo spoliehať sa viac na ľudí, aby posúdili, či príspevok možno alebo nemožno klasifikovať ako nenávistný prejav, ale vzhľadom na obrovský rozsah sociálnej siete je len malá šanca na kontrolu obsahu bez úrovne automatizácie.

Automatická detekcia prostredníctvom AI aspoň v tomto prípade nefunguje dosť pre 2,9 miliardy používateľov, a sociálna sieť musí nájsť lepší spôsob ochrany ľudí na svojej platforme. S ranou ešte čerstvou po Cambridge Analytica, môže mať najprv väčšie ryby na vyprážanie.