Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Facebook continuera à vous manipuler, sous ses propres conditions

Trois mois après avoir soulevé l'indignation en révélant une expérience in vivo de manipulation des émotions de plus de 680 000 membres, Facebook a tenu à rassurer jeudi en affirmant qu'il avait désormais des "lignes de conduite" imposées aux chercheurs. Mais ces lignes de conduite ne sont pas détaillées, et le principe des expérimentations comportementales reste autorisé.

En juillet dernier, Facebook avait révélé à travers une étude menée par ses propres chercheurs et par des universitaires qu'il avait manipulé les émotions de ses membres pendant une semaine, en jouant sur le nombre de messages à connotation positive ou négative qu'ils voyaient, pour en observer les effets comportementaux. Plus de 680 000 utilisateurs ont ainsi été transformés en cobayes, pour voir si leurs émotions positives ou négatives provoquées par la lecture des messages les amenaient eux-mêmes à adopter un comportement plus joyeux, plus triste ou plus colérique.

L'étude qui était conclusive a démontré que Facebook avait une réelle capacité de manipulation des foules, ce qui a d'abord pour lui un intérêt commercial (un internaute heureux est un internaute qui consomme davantage), mais qui peut aussi avoir un intérêt politique. Ce que Facebook fait avec les émotions positives ou négatives, il peut parfaitement le faire avec la réduction ou l'augmentation du nombre des messages véhiculant certaines idées. Alors que Facebook rend invisible une grande majorité des messages publiés par les membres, la capacité d'influence du réseau social sur son 1,3 milliard de membres est immense, et encore largement sous-estimée.

Lorsqu'elle a été publiée, l'étude a soulevé de nombreuses critiques. Beaucoup moins, curieusement, pour la manipulation mentale elle-même, que pour avoir transformé des membres en cobayes d'une étude scientifique sans les prévenir. Facebook s'était donc excusé, non pas d'avoir manipulé les foules, mais uniquement d'avoir mal communiqué.

Des lignes de conduite inconnues

Or à nouveau, trois mois plus tard, Facebook a publié jeudi une mise au point sur ses études comportementales, dans laquelle la firme de Mark Zuckerberg explique qu'elle "croit dans la recherche, parce que ça aide à construire un meilleur Facebook", et qu'elle va donc continuer à réaliser des études, y compris sur "des groupes particuliers de populations", ou sur "du contenu qui peut être considéré comme profondément personnel", "tel que les émotions". Sur son nouveau site dédié aux recherches, il existe un pan de recherches liées à "l'expérience utilisateur" qui comprend notamment "la compassion et l'émotion dans la communication en ligne".

Dans son communiqué, Facebook assure avec beaucoup de conviction qu'il a mis au point des "lignes de conduite" que devront respecter les chercheurs, avec des processus d'évaluation en amont qui devront être respectés avant que les travaux démarrent. Mais ces "lignes de conduite" ne sont jamais décrites, et encore moins publiées.

Et Facebook précise bien que ces lignes s'appliquent "à la fois au travail internet et aux recherches qui pourraient être publiées", ce qui veut bien dire que seule une partie des études et expérimentations donnent lieu à publication.