Facebook a détaillé les mesures que le réseau social va prendre pour éviter que ne se reproduise un ciblage publicitaire motivé par la haine.

L’affaire a éclaté au grand jour à la faveur d’un article mis en ligne sur ProPublica et signé par les journalistes Julia Angwin, Madeleine Varner et Ariana Tobin. Dans celui-ci, on apprend que Facebook a permis, du fait d’une dérive technique, de procéder au ciblage de profils clairement antisémites, grâce aux outils publicitaires que le réseau social met à disposition des annonceurs.

Ce ciblage pouvait être réalisé grâce aux catégories automatiquement générées par l’algorithme du site, sur la base des « centres d’intérêt » des membres du service. En fait, ces « centres d’intérêt » étaient interprétés à partir de l’expression anti-juive qui peut se manifester sur Facebook, notamment aux États-Unis, du fait d’un cadre bien plus permissif pour la liberté d’expression.

Marché des idées. De toutes les idées.

« Le droit américain ne connaît pas d’équivalent de la loi Gayssot qui interdit de tenir des propos antisémites ou négationnistes », rappelle Roseline Letteron, professeure de droit public à l’université Paris-Sorbonne. « Il n’existe pas, aux États-Unis, ‘d’ordre moral’ permettant d’interdire la circulation de certaines idées ». Outre-Atlantique, « la liberté d’expression s’entend comme un libre accès au marché des idées, quel que soit leur contenu, politique ou non, scandaleux ou non », relève-t-elle.

Un accès au marché des idées que Facebook s’est toutefois empressé de restreindre sur sa plateforme, considérant que si la liberté d’expression est telle qu’elle est aux États-Unis, le site a néanmoins autorité pour décider de ce qui peut être fait ou non sur son site. Ainsi, le réseau social s’est naturellement empressé de supprimer ces suggestions automatisées et a promis de se montrer plus vigilant, jugeant l’affaire contraire à ses valeurs.

sheryl sandberg facebook
CC World Economic Forum

Depuis, des précisions ont été apportées sur la façon dont Facebook entend gérer à l’avenir ce type d’incident. Sheryl Sandberg, la numéro deux de Facebook, s’est fendue d’un long commentaire sur sa page pour annoncer au public trois mesures devant renforcer les garde-fous contre les publicités ciblées motivées par la haine.

Tout d’abord, le site prévoit une clarification de ses règles publicitaires et un durcissement de ses procédures de vérification afin de « s’assurer que le contenu qui va à l’encontre des normes de notre communauté ne puisse pas être utilisé pour cibler les publicités. […] Ce type de ciblage a toujours été contraire à nos politiques et nous prenons d’autres mesures pour l’appliquer maintenant ».

Davantage d’examens et de surveillance d’origine humaine sur les processus automatisés

Sheryl Sandberg explique que cela vise tout ce qui s’attaque directement aux personnes en fonction de leur ethnie, de leur origine nationale, de leur appartenance religieuse, de leur orientation sexuelle, de leur sexe, de leur identité sexuelle ou de leur identité de genre, de leurs handicaps ou maladies.

Ensuite, Facebook annonce « davantage d’examens et de surveillance d’origine humaine à nos processus automatisés ». Le site précise que les options de ciblage existantes ont été examinées manuellement et que plus de 5 000 termes les plus couramment utilisés ont été vérifiés afin qu’ils collent avec les règles du site communautaire. Le site espère ainsi empêcher l’apparition de termes offensants.

Enfin, la plateforme compte aussi sur la coopération des internautes. « Nous travaillons à la création d’un programme pour encourager les gens sur Facebook à nous signaler directement les abus potentiels de notre système de publicité », écrit Sheryl Sandberg. Une aide qui ne sera pas superflue, comme en témoigne l’incapacité de Facebook d’empêcher le ciblage antisémite à l’origine de l’affaire.

Opinion et segment publicitaire

Reste à savoir si les nouvelles procédures de Facebook vont parvenir à remettre un peu d’ordre dans son algorithme de catégorisation publicitaire automatique. Pour Olivier Ertzscheid, maître de conférences en sciences de l’information et de la communication, il n’y a aucun doute à avoir sur « la capacité de Facebook (et des autres régies) à faire, sous la pression de l’opinion, temporairement le ménage manuellement ».

En revanche, explique-t-il, il « ne croit pas un seul instant que ce ménage sera effectué de manière pérenne et que ces biais, sortis par la porte de l’opinion publique effarouchée, ne reviendront pas par la fenêtre de l’intérêt commercial supérieur », à cause de la logique qui fait qu’une opinion produit un segment publicitaire ; le marché des idées est un marché tout court, en somme.

« Le plus inquiétant n’est pas que cette haine existe, ni que nous n’ayons toujours pas trouvé le moyen de l’éradiquer ; le plus inquiétant est qu’elle ait trouvé un marché », conclut-il.

Partager sur les réseaux sociaux