Le réseau social déploie un changement sur la manière dont les photos publiées par les internautes s'affichent. L'an dernier, son outil de recadrage automatique avait été accusé de biais raciste.

Modifier l’aperçu des images dans les tweets pour éviter les recadrages malheureux. Tel est le sens du changement qui a eu lieu le 5 mai 2021 dans la façon dont Twitter affiche les photos sur ses applications mobiles pour Android et iOS. La modification, explorée depuis mars dernier, est désormais déployée pour tout le monde depuis le début du mois, indique le réseau social dans un message.

Jusqu’à présent, le fonctionnement de la plateforme incluait un recadrage automatique des photos pour afficher la partie que ses algorithmes estimaient la plus intéressante à mettre en avant. Les internautes devaient cliquer sur les clichés pour les voir en entier. Désormais, lorsqu’un tweet ne contient qu’une seule photographie, celle-ci s’affiche en totalité, quand le message est visionné sur mobile.

Un outil de recadrage accusé de biais raciste

En apparence anodine, cette évolution s’inscrit toutefois dans un cadre beaucoup plus important que son annonce ne le laisse entendre. Des internautes avaient découvert, en septembre 2020, l’existence de biais dans les algorithmes de recadrage de Twitter. Il était apparu que les recadrages privilégiaient les personnes blanches dans un grand nombre de cas, au détriment des autres, manifestement indépendamment des positions, vêtements ou expressions sur les clichés.

L’exemple le plus marquant avait été le comparatif entre deux photos, l’une de Barack Obama, ancien président des États-Unis et premier Noir à accéder à cette fonction, mondialement connu, et l’autre de Mitch McConnell, une personnalité politique de premier plan aux USA, mais dont la notoriété est moindre. Qu’importe la position des clichés, c’est le visage de Mitch McConnell qui était toujours privilégié.

L’expérience menée par un internaute a mis au jour un fonctionnement biaisé des algorithmes de Twitter. // Source : Twitter/bascule

L’affaire avait évidemment fini par remonter jusqu’à Twitter, dont les équipes avaient admis sur leur blog que le « fait de découper automatiquement les photos peut potentiellement faire du mal », sans toutefois aller jusqu’à reconnaître un biais dans le fonctionnement de leur outil. « Nos analyses n’ont pas montré de biais raciaux ou de genre », avaient-ils lancé, alors que le caractère raciste de l’outil était évoqué.

À l’époque, le réseau social indiquait néanmoins vouloir « minimiser [sa] dépendance à l’algorithme, et laisser plus de visibilité aux utilisateurs sur ce à quoi leurs tweets ressembleront ». La mise à l’écart partielle du recadrage automatique des photos traduit cette volonté, même s’il n’apporte pas une solution définitive, notamment lorsque le tweet comporte plusieurs photographies.

Partager sur les réseaux sociaux

La suite en vidéo