Facebook espalha notícias falsas 72 horas após demitir editores humanos

Se você está a mais de uma década da aposentadoria, então os passos metálicos de robôs (figurativamente) rastejando atrás de você para assumir seu emprego são (literalmente) um risco ocupacional. Enquanto os prazos para cada ocupação variam muito, dependendo de quão amigável é a carreira do robô, egoisticamente, é bastante reconfortante relatar que os algoritmos ainda não estão prontos para assumir a tarefa de distribuir notícias.

Facebook espalha notícias falsas 72 horas após demitir editores humanos

Infelizmente para o Facebook, esta é uma lição que a empresa teve que aprender da maneira mais difícil.

Na sexta-feira, a rede social retirou os humanos do processo de notícias de tendências em uma tentativa de garantir que quaisquer preconceitos políticos fossem mantidos sob controle, após críticas no início deste ano de que esses humanos estavam deliberadamente enterrando notícias conservadoras. Não é a primeira vez que as redes sociais são manipuladas para fins políticos – veja o fascinante caso dos patriotas do Digg – mas o alcance do Facebook o torna influente de uma forma que os sites anteriores não foram.

Sem intervenção humana para separar o trigo da verdade do joio do absurdo, levou menos de 72 horas para uma notícia falsa aparecer no centro das atenções, como pego pelo Washington Post. A história no resumo da história descreveu como Megyn Kelly foi demitida da Fox News por apoiar Hillary Clinton na eleição presidencial. Não era verdade, com base em uma manchete enganosa.facebook_spreads_fake_news_human_editors

Em uma postagem de blog explicando a mudança em sua abordagem às notícias de tendências, o Facebook explica que os humanos ainda estão envolvidos no processo “para garantir que os tópicos que aparecem no Trending permaneçam de alta qualidade – por exemplo, confirmando que um tópico está vinculado a um evento de notícias atual no real mundo".

Desde então, o Facebook removeu a postagem e emitiu um pedido de desculpas. Falando com a CBS News, Justin Osofsky, vice-presidente de operações globais, ofereceu um pouco mais de explicação sobre como isso aconteceu. “Um tópico é elegível para o Trending se atender aos critérios para ser um evento de notícias do mundo real e se houver um número suficiente de artigos e postagens relevantes sobre esse tópico. No fim de semana, este tópico atendeu a essas condições e a equipe de revisão do Trending o aceitou pensando que era um tópico do mundo real. Em seguida, revisamos novamente o tópico com base na probabilidade de haver imprecisões nos artigos. Determinamos que era uma farsa e não está mais sendo exibido em Tendências. Estamos trabalhando para tornar nossa detecção de boatos e histórias satíricas mais rápida e precisa.”

Após esse deslize, apenas três dias após o início do experimento de notícias algorítmicas, é possível que o a brigada de carne e osso terá um papel mais prático novamente - pelo menos até que a IA tenha um melhor controle nas coisas.

Imagem: Sarah Marshall, usado sob Creative Commons