Twitter était fier de son algorithme d'aperçus de photo. Puis il a réalisé qu’il pouvait être raciste
« Twitter privilégie-t-il les personnes blanches aux personnes noires sur les photos ? » se demandait-on le 21 septembre dernier.
https://twitter.com/bascule/status/1307440596668182528
« Bien que nos analyses n'aient pas montré de biais raciaux ou de genre, nous reconnaissons que le fait de découper automatiquement les photos peut potentiellement faire du mal », ont écrit Parag Agrawal et Dantley Davis, deux ingénieurs de Twitter, dans un billet de blog officiel le 1er octobre.
Le biais était évident, depuis le départ
Ce que les deux hommes admettent aujourd'hui sonne tant comme une évidence que l'on peut se demander comment personne, au sein de leur entreprise, n'y avait songé auparavant. Le concept de l'algorithme développé et présenté fièrement en 2018 par Twitter avait pourtant un biais intrinsèque à son existence même : devoir choisir quel élément est le « plus important » d'une image. Twitter décrivait dans un billet de blog que le fonctionnement de son algorithme était basé sur une notion de « saliency » ce qui signifie « prépondérance » : c’est-à-dire « ce qu’il y a de plus important dans une photo ».
Lorsqu'il s'agit de choisir de montrer les pattes d'un chat ou sa petite truffe, les enjeux sont minces. Mais quand il faut décider qui afficher entre un sénateur noir ou un sénateur blanc américain, le choix parait évidemment comme impensable.
Le réseau social a donc laissé entendre ce 1er octobre, en filigrane, que son algorithme allait tout simplement être abandonné petit à petit : « Nous mettons l'accent sur la diminution de l'utilisation du recadrage par machine learning en donnant la possibilité aux gens d'avoir plus de contrôle et de visibilité sur la manière dont les images vont apparaître dans leurs tweets ».
Deux solutions sont envisagées :
Laisser les gens choisir ce qu'ils veulent voir s'afficher en aperçu (la solution actuellement testée, à court terme) ;
Ne plus produire d'aperçu d'images du tout, et afficher systématiquement les photos dans leur ensemble (« il pourrait y avoir des exceptions selon la taille ou le format » nuance toutefois le réseau social)
« Les biais du machine learning sont un problème auquel toute l'industrie [de la tech] doit faire face », ont conclu les deux cadres de Twitter. À croire que parfois, se passer des algorithmes serait une meilleure idée que de vouloir les utiliser à tout prix.