Facebook peut trouver des nus mais pas des discours de haine

Facebook est toujours en train de maîtriser tout cet accord de transparence. Hier, le réseau social a publié son tout premier public rapport trimestriel sur la façon dont il applique les normes communautaires, et il est apparu que ses efforts de modération étaient assez efficaces. Mais alors que le réseau social semblait capable d'éliminer avec succès 583 millions de faux comptes au cours des trois premiers mois de 2018, un détail flagrant est ressorti du rapport.

Facebook peut trouver des nus mais pas des discours de haine

L'IA à signalisation automatique de l'entreprise semble bien fonctionner pour la détection des faux comptes, du spam et même de la nudité, mais elle semble avoir beaucoup de mal à détecter les discours de haine sur la plate-forme.

Dans le rapport, Facebook a déclaré que ses outils basés sur l'IA étaient capables de supprimer 98,5 % des faux comptes et près de 100 % des spams sans que les utilisateurs signalent le contenu. L'IA a même réussi à signaler 99,5 % de la propagande terroriste et 95,8 % de la nudité et de l'activité sexuelle des adultes. Il semblait moins efficace pour détecter la violence graphique, ne parvenant à trouver que 85,6% du contenu, mais ce chiffre est énorme par rapport à la quantité de discours de haine détectée par l'IA. Selon le rapport, l'IA n'a pu signaler que 38 % des discours de haine.

"Pour le discours de haine, notre technologie ne fonctionne toujours pas très bien", Guy Rosen, vice-président de la gestion des produits, admet sur le blog Facebook.

"C'est en partie parce que la technologie comme l'intelligence artificielle, bien que prometteuse, est encore à des années d'être efficace pour la plupart des mauvais contenus, car le contexte est si important", ajoute-t-il. "L'intelligence artificielle n'est toujours pas assez bonne pour déterminer si quelqu'un pousse à la haine ou décrit ce qui lui est arrivé afin qu'il puisse sensibiliser le public au problème."

Voir liés 

Facebook suspend des centaines d'applications pour avoir abusé des données des utilisateurs
Facebook veut vos nus… mais il prévoit de les utiliser pour lutter contre le revenge porn

Le langage est massivement nuancé, donc entraîner une IA à reconnaître quelque chose d'aussi complexe que le discours de haine, qui peut se présenter de plusieurs façons, va être une tâche difficile sans l'utilisation de l'homme modération. Contrairement au spam et aux faux comptes, et même à la nudité et à la propagande terroriste - qui peuvent être détectées grâce à la reconnaissance d'images - le discours de haine est beaucoup plus difficile à contrôler.

Comme l'a dit Timothy Carone, maître de conférences à l'université de Notre-Dame PA: "Il n'est pas surprenant que les programmes automatisés de Facebook aient le plus de mal à comprendre les différences entre les opinions permises et le langage ignoble qui franchit la ligne.

"C'est comme essayer de trouver l'équivalent entre crier "Au feu!" dans un théâtre bondé quand il n'y en a pas et l'équivalent de dire quelque chose qui est inconfortable mais qui se qualifie de gratuit discours."

Une solution consisterait à se fier davantage aux humains pour évaluer si un message peut ou non être qualifié de discours de haine, mais compte tenu de l'ampleur du réseau social, il y a peu de chances que le contenu soit vérifié sans un niveau de automatisation.

Dans ce cas au moins, la détection automatique par l'IA ne fait pas assez pour ses 2,9 milliards d'utilisateurs, et le réseau social doit trouver un meilleur moyen de protéger ceux qui se trouvent sur sa plateforme. Avec la blessure encore fraîche après Cambridge Analytica, il peut avoir de plus gros poissons à faire frire en premier.