Facebook admite que mexeu com as emoções dos usuários

O Facebook está enfrentando fortes críticas depois que foi revelado que a empresa manipulou deliberadamente as emoções dos usuários sem seu conhecimento em um teste de feed de notícias.

Facebook admite que mexeu com as emoções dos usuários

O experimento, que afetou cerca de 700.000 pessoas, foi conduzido em conjunto com pesquisadores da Cornell University e da University of California San Francisco.

Apesar da falta de consentimento dos usuários, os acadêmicos foram autorizados a alterar a ordem em que as postagens de seus amigos apareciam em seus feeds de notícias.

Os sujeitos do teste foram divididos em dois grupos e, dependendo de qual grupo eles estavam, veriam um aumento no número de posts positivos ou negativos. Eles foram então estudados para ver se o tipo de postagens que viam com mais frequência afetava seu próprio humor.

Posso entender por que algumas pessoas se preocupam com isso, e meus coautores e eu lamentamos muito a forma como o artigo descreveu a pesquisa e qualquer ansiedade que ela tenha causado.

Embora o projeto tenha sido realizado em 2012, só agora veio à tona

após a publicação do artigo dos pesquisadores no Anais da Academia Nacional de Ciências dos Estados Unidos.

Os pesquisadores afirmam que sua coleta de dados foi justificada porque “foi consistente com a Política de Uso de Dados do Facebook, com o qual todos os usuários concordam antes de criar uma conta no Facebook, constituindo consentimento informado para isso pesquisar".

O Facebook, por sua vez, disse que "não houve coleta desnecessária de dados das pessoas" e que "nenhum dos dados usados ​​foi associado à conta do Facebook de uma pessoa específica".

Preocupações éticas

No entanto, muitas pessoas questionaram a ética do projeto, incluindo o parlamentar trabalhista Jim Sheridan, membro do comitê de mídia do Commons, que pediu uma investigação sobre o matéria.

James Grimmelmann, professor de direito da Universidade de Maryland, twittou que “o aplicativo deveria ter disparado mais alarmes (em Cornell e no PNAS) do que disparou”.

De fato, até mesmo a editora do jornal, a professora de psicologia da Universidade de Princeton Susan Fiske, disse que “estava preocupada” com a ética do experimento, de acordo com O Atlantico.

Mas, ao falar com os pesquisadores, ela ficou satisfeita com o fato de o projeto ser ético porque “seu conselho de revisão institucional local (que revisa a conduta dos pesquisadores em experimentos que envolvem humanos) o aprovou – e… com base no fato de que o Facebook aparentemente manipula os feeds de notícias das pessoas todos A Hora".

No entanto, sua afirmação foi questionada por Forbes.

Citando “uma fonte familiarizada com o assunto”, a agência disse que o estudo foi “aprovado por meio de um processo de revisão interna do Facebook, não por meio de um conselho de revisão institucional da universidade”.

Adão D. EU. Kramer, cientista de dados do Facebook e um dos autores do artigo, procurou defender o experimento, dizendo que “pelo menos no final do dia, o impacto real sobre as pessoas no experimento foi o mínimo para detectá-lo estatisticamente”.

“Posso entender por que algumas pessoas se preocupam com isso, e meus coautores e eu lamentamos muito a forma como o artigo descreveu a pesquisa e qualquer ansiedade que ela tenha causado”, acrescentou.