Facebook può trovare i nudi ma non l'incitamento all'odio

Facebook sta ancora affrontando l'intero accordo sulla trasparenza. Ieri, il social network ha rilasciato il suo primo pubblico in assoluto relazione trimestrale su come applica gli standard della comunità e sembrava che i suoi sforzi di moderazione fossero abbastanza efficaci. Ma mentre il social network sembrava in grado di eliminare con successo 583 milioni di account falsi nei primi tre mesi del 2018, c'è stato un dettaglio lampante che è saltato fuori nel rapporto.

Facebook può trovare i nudi ma non l'incitamento all'odio

L'intelligenza artificiale di auto-segnalazione dell'azienda sembra funzionare bene per il rilevamento di account falsi, spam e persino nudità, ma sembra avere molti problemi a rilevare l'incitamento all'odio sulla piattaforma.

Nel rapporto, Facebook ha affermato che i suoi strumenti basati sull'intelligenza artificiale sono stati in grado di rimuovere il 98,5% degli account falsi e quasi il 100% dello spam senza che gli utenti ne segnalassero il contenuto. L'intelligenza artificiale è persino riuscita a segnalare il 99,5% della propaganda terroristica e il 95,8% della nudità e dell'attività sessuale degli adulti. Sembrava avere meno successo nel rilevare la violenza grafica, riuscendo a trovare solo l'85,6% del contenuto, ma quella cifra è enorme rispetto alla quantità di incitamento all'odio rilevata dall'intelligenza artificiale. Secondo il rapporto, l'intelligenza artificiale è stata in grado di segnalare solo il 38% dei discorsi di odio.

"Per l'incitamento all'odio, la nostra tecnologia continua a non funzionare così bene", Guy Rosen, vicepresidente della gestione dei prodotti, ammette sul blog di Facebook.

"In parte, la tecnologia come l'intelligenza artificiale, sebbene promettente, è ancora lontana anni dall'essere efficace per la maggior parte dei contenuti scadenti perché il contesto è così importante", aggiunge. "L'intelligenza artificiale non è ancora abbastanza buona per determinare se qualcuno sta spingendo l'odio o descrivendo ciò che gli è successo in modo che possa aumentare la consapevolezza del problema".

Vedi correlati 

Facebook sospende centinaia di app per uso improprio dei dati degli utenti
Facebook vuole i tuoi nudi... ma prevede di usarli per combattere il revenge porn

Il linguaggio è estremamente sfumato, quindi addestrare un'intelligenza artificiale a riconoscere qualcosa di così complesso come l'incitamento all'odio, che può presentarsi in diversi modi, sarà un compito difficile senza l'uso dell'essere umano moderazione. A differenza dello spam e degli account falsi, e persino della nudità e della propaganda terroristica, che possono essere rilevati attraverso il riconoscimento delle immagini, l'incitamento all'odio è molto più difficile da controllare.

Come ha raccontato Timothy Carone, docente all'università di Notre Dame AP: “Non sorprende che i programmi automatizzati di Facebook abbiano la massima difficoltà nel cercare di capire le differenze tra opinioni consentite e linguaggio spregevole che oltrepassa il limite.

“È come cercare di capire l'equivalente tra urlare 'Fuoco!' in un teatro affollato quando non ce n'è e l'equivalente di dire qualcosa che è scomodo ma si qualifica come gratuito discorso."

Una soluzione sarebbe affidarsi maggiormente agli umani per valutare se un post può essere classificato o meno come incitamento all'odio, ma data la vastità del social network, ci sono poche possibilità che i contenuti vengano controllati senza un livello di automazione.

Almeno in questo caso, il rilevamento automatico tramite AI non funziona abbastanza per i suoi 2,9 miliardi di utenti, e il social network deve trovare un modo migliore per proteggere quelli sulla sua piattaforma. Con la ferita ancora fresca dopo Cambridge Analytic, potrebbe avere pesci più grandi da friggere prima.