Facebook diffuse de fausses nouvelles 72 heures après avoir limogé des rédacteurs humains

Si vous êtes à plus d'une décennie de la retraite, alors les pas métalliques des robots (au sens figuré) rampant derrière vous pour prendre votre travail sont (littéralement) un risque professionnel. Alors que les délais pour chaque profession varient considérablement en fonction de la compatibilité de la carrière avec les robots, égoïstement, il est assez rassurant de signaler que les algorithmes ne sont pas encore prêts à se charger de la distribution des informations.

Facebook diffuse de fausses nouvelles 72 heures après avoir limogé des rédacteurs humains

Malheureusement pour Facebook, c'est une leçon que l'entreprise a dû apprendre à ses dépens.

Vendredi, le réseau social a retiré les humains du processus d'actualité des tendances dans le but de s'assurer que tout parti pris politique soit maîtrisé, à la suite de critiques plus tôt cette année selon lesquelles ces humains enterraient délibérément des nouvelles conservatrices. Ce n'est pas la première fois que les réseaux sociaux sont manipulés à des fins politiques - voir le cas fascinant des patriotes de Digg - mais la portée de Facebook le rend influent d'une manière que les sites précédents ne l'ont pas été.

Sans intervention humaine pour séparer le grain de la vérité de l'ivraie du non-sens, il a fallu moins de 72 heures pour qu'une fausse nouvelle apparaisse sous les projecteurs, comme attrapé par le Poste de Washington. L'histoire du résumé de l'histoire décrivait comment Megyn Kelly avait été renvoyée de Fox News pour avoir soutenu Hillary Clinton lors de l'élection présidentielle. Ce n'était pas vrai, basé sur un titre trompeur.facebook_spreads_fake_news_human_editors

Dans un article de blog expliquant le changement dans son approche des nouvelles tendances, Facebook explique que les humains sont toujours impliqués dans le processus "pour s'assurer que les sujets qui apparaissent dans Trending restent de haute qualité - par exemple, confirmant qu'un sujet est lié à un événement d'actualité actuel dans le vrai monde".

Facebook a depuis supprimé le message et présenté des excuses. S'adressant à CBS News, Justin Osofsky, vice-président des opérations mondiales, a offert un peu plus d'explications sur la façon dont cela s'est produit. "Un sujet est éligible pour Trending s'il répond aux critères d'un événement d'actualité du monde réel et s'il existe un nombre suffisant d'articles et de messages pertinents sur ce sujet. Au cours du week-end, ce sujet a rempli ces conditions et l'équipe de révision des tendances l'a accepté en pensant qu'il s'agissait d'un sujet du monde réel. Nous avons ensuite réexaminé le sujet en fonction de la probabilité qu'il y ait des inexactitudes dans les articles. Nous avons déterminé qu'il s'agissait d'un canular et il n'apparaît plus dans les tendances. Nous nous efforçons de rendre notre détection des canulars et des histoires satiriques plus rapide et plus précise.

Après ce dérapage, à peine trois jours après le début de l'expérience de nouvelles algorithmiques, il est possible que le la brigade en chair et en os assumera à nouveau un rôle plus pratique - du moins jusqu'à ce que l'IA ait une meilleure prise en main sur les choses.

Image: Sarah Marshall, utilisé sous Creative Commons