Facebook admet avoir joué avec les émotions des utilisateurs

Facebook fait face à de vives critiques après avoir révélé que la société avait délibérément manipulé les émotions des utilisateurs à leur insu lors d'un test de fil d'actualité.

Facebook admet avoir joué avec les émotions des utilisateurs

L'expérience, qui a touché environ 700 000 personnes, a été menée en collaboration avec des chercheurs de l'Université Cornell et de l'Université de Californie à San Francisco.

Malgré l'absence de consentement des utilisateurs, les universitaires ont été autorisés à modifier l'ordre dans lequel les messages de leurs amis apparaissaient dans leurs fils d'actualité.

Les sujets de test ont été divisés en deux groupes et, selon le groupe dans lequel ils se trouvaient, verraient un nombre accru de messages positifs ou négatifs. Ils ont ensuite été étudiés pour voir si le type de messages qu'ils voyaient le plus fréquemment affectait leur propre humeur.

Je peux comprendre pourquoi certaines personnes s'en inquiètent, et mes co-auteurs et moi-même sommes vraiment désolés de la façon dont l'article décrit la recherche et de toute anxiété qu'elle a causée.

Bien que le projet ait été réalisé en 2012, ce n'est que maintenant qu'il a vu le jour suite à la publication de l'article des chercheurs dans le Actes de l'Académie nationale des sciences des États-Unis.

Les chercheurs affirment que leur collecte de données était justifiée car elle "était conforme à la politique d'utilisation des données de Facebook, à laquelle tout utilisateur s'engage préalablement à la création d'un compte sur Facebook, valant consentement éclairé à cette recherche".

Facebook, quant à lui, a déclaré qu'il n'y avait "pas de collecte inutile de données sur les personnes" et qu'"aucune des données utilisées n'était associée au compte Facebook d'une personne spécifique".

Préoccupations éthiques

Cependant, de nombreuses personnes ont remis en question l'éthique du projet, notamment le député travailliste Jim Sheridan, membre du comité restreint des médias de la Chambre des communes, qui a demandé une enquête sur le matière.

James Grimmelmann, professeur de droit à l'Université du Maryland, a tweeté que "l'application aurait dû déclencher plus d'alarmes (à Cornell et à PNAS) qu'elle ne l'a fait".

En effet, même la rédactrice en chef de l'article, Susan Fiske, professeur de psychologie à l'Université de Princeton, a déclaré qu'elle "était préoccupée" par l'éthique de l'expérience, selon L'Atlantique.

Mais, après avoir parlé aux chercheurs, elle était convaincue que le projet était éthique parce que «leur comité d'examen institutionnel local (qui examine la conduite des chercheurs dans des expériences impliquant des humains) l’avait approuvé – et… au motif que Facebook manipule apparemment les fils d’actualité des gens tous le temps".

Cependant, sa demande a été remise en question par Forbes.

Citant "une source proche du dossier", le média a déclaré que l'étude avait été "approuvée par un processus d'examen interne chez Facebook, et non par un comité d'examen institutionnel universitaire".

Adam D. JE. Kramer, un scientifique des données chez Facebook et l'un des auteurs de l'article, a cherché à défendre l'expérience, en disant "à En fin de compte, l'impact réel sur les personnes participant à l'expérience était le minimum pour le détecter statistiquement ».

"Je peux comprendre pourquoi certaines personnes s'en inquiètent, et mes co-auteurs et moi sommes vraiment désolés de la façon dont l'article décrit la recherche et de toute anxiété qu'elle a causée", a-t-il ajouté.