Facebook n'est pas neutre, et ne pourra jamais être neutre dans le choix des informations qu'il affiche ou n'affiche pas auprès des internautes. Après avoir licencié les humains qui filtraient les informations dans ses « Trending topics », le réseau social doit corriger l'algorithme qui les remplace.

Peut-on être une grande plateforme qui donne à des centaines de millions d’internautes l’accès à des informations, et prétendre être parfaitement neutre dans la manière dont ces informations sont sélectionnées, et d’autres écartées ? Depuis qu’il a choisi de ne plus tout afficher sur les fils d’actualités de ses utilisateurs mais d’opérer un filtrage algorithmique, Facebook se retrouve confronté aux soupçons sur les critères pris en compte pour choisir les messages visibles, qui d’ailleurs évoluent constamment.

Il est légitime et même sain de porter un tel soupçon. Imaginez le pouvoir que peut conférer la sélection des informations que 1,5 milliard de personnes dans le monde voient ou ne voient pas dans leur réseau social, et donc lesquelles ils peuvent partager. Jamais aucune entité au monde n’a eu entre ses mains un tel pouvoir, à l’exception d’un Google qui lui-même prétend être neutre.

Mais la neutralité n’existe pas et même n’est pas toujours souhaitable. On trouve généralement normal que Facebook modifie ses algorithmes pour suggérer moins de contacts ou d’informations djihadistes, mais il s’agit (ou s’agirait) bien d’un choix politique dicté par le « camp » auquel appartient le réseau social américain. Le même type de choix peut ou pourra guider d’autres orientations éditoriales qui font évoluer la pensée, à l’échelle d’un petit groupe d’individus, d’un pays ou d’une planète. Peut-être que dans les années du Maccarthysme, il aurait été normal pour un Facebook de limiter la visibilité de la propagande communiste, ou qu’il aurait au contraire été accusé de faciliter sa propagation s’il n’avait pas rejoint la chasse aux sorcières.

Le pouvoir confié aux ingénieurs de Facebook

Or Facebook, qui avait déjà fort à faire avec le filtrage de ses fils d’actualités, s’est mis dans une difficulté supplémentaire avec les « Trending Topics » qu’il affiche depuis 2014 aux États-Unis. Jusqu’à la semaine dernière, ces TT de Facebook étaient modérés par une petite équipe de journalistes ou en tout cas d’humains en charge de questions éditoriales, qui devaient renseigner les internautes sur l’intérêt d’un lien fortement partagé, et éventuellement écarter ceux qui n’avaient pas de valeur journalistique.

foxnews

Mais en mai dernier, Gizmodo avait publié une enquête pour affirmer que ces « curateurs » avaient tendance à supprimer des informations véhiculant des opinions conservatrices, au profit d’informations libérales, ce que Facebook et d’anciens employés avaient démenti. Toutefois pour mettre fin aux spéculation sur le biais politique des trending topics , le réseau social a annoncé il y a quelques jours qu’il avait licencié tous ces curateurs humains, au profit des seuls ingénieurs de Facebook, à qui est désormais confié le pouvoir.

« Un processus guidé davantage par des algorithmes nous permet d’étendre Trending pour couvrir davantage de sujets et faire qu’il soit disponible pour plus de personnes dans le monde  », s’est justifié Facebook. Dans un modernisme aveugle, l’algorithme est réputé neutre alors qu’il est loin de l’être. Les ingénieurs font des choix, qui dictent ce qui sera retenu ou écarté, et ces choix ont une motivation consciente, et des conséquences parfois inconscientes, qui ne se révèlent que quand un résultat paraît ne pas aller.

Or c’est ce qui s’est produit dès cette semaine. Le Washington Post rapporte qu’un canular est venu se placer en tête des Trending de Facebook, parce qu’il avait été fortement partagé. L’information qui apparaissait dans le titre était fausse, et avait été reprise d’un article fictif dont le titre provocateur à l’encontre d’une journaliste de Fox News avait assuré le succès. Sa source était un site conservateur, qui n’hésite pas à utiliser ce type de procédé pour faire passer ses messages, par la satire.

Facebook a estimé que son algorithme n’aurait pas dû mettre cet article satirique en une, et a indiqué qu’il travaillait à des réglages qui permettraient d’éviter ce type de déconvenues à l’avenir. Or il devra le faire par des méthodes qui permettent de filtrer l’information. Soit en tentant par intelligence artificielle de dénouer le vrai du faux, ce dont on ne sait pas très bien si c’est utopique ou dystopique. Soit, plus probablement, en établissant des listes blanches ou des listes noires de sites dont la crédibilité aurait été confirmée, ou contestée.

Ce faisant, Facebook fera nécessairement des choix, qui modifieront les informations qui seront vues par les internautes, et qu’ils seront eux-mêmes tentés de partager. Or l’on ne sait évidemment rien des critères qui permettront à l’algorithme de Facebook de déterminer qu’une information est digne de parvenir dans les Trending, ou qu’elle doit en être écartée.

Partager sur les réseaux sociaux

Articles liés