Flickr n'est pas le seul service à faire appel à un algorithme de reconnaissance d'image pour ajouter des mots-clés à des photos. Google Photos propose aussi un outil similaire. Et comme avec Flickr, le service dérape parfois : ainsi, une photo présentant deux personnes à la peau noire a été classée dans la catégorie… gorilles.

C'est là toute la limite de l'exercice. En choisissant de s'appuyer exclusivement sur un algorithme pour classer automatiquement les photos dans sa nouvelle application de photographie, Google ne pouvait aller qu'au devant des ennuis. Et cela n'a pas manqué : quelques jours à peine après la sortie du logiciel, une polémique a surgi sur les réseaux sociaux.

En effet, l'outil de reconnaissance d'image utilisé par Google pour organiser les clichés par catégorie a eu le malheur de confondre deux personnes à la couleur de peau noire avec des… gorilles. Et pour ne rien arranger, il s'agit visiblement de la seule photo qui a reçu un classement inapproprié : les cinq autres clichés analysés par Google Photos ont été décrits correctement.

La polémique a été relayée sur Twitter par l'une des victimes de ce mauvais classement :

Bien entendu, Google n'a pas tardé à réagir sur Twitter en répondant directement à l'intéressé. L'un des développeurs du réseau social a expliqué qu'il s'agissait d'une erreur dans l'apprentissage automatique visant à laisser une intelligence artificielle décrire automatiquement le contenu des photos, et insisté par la même occasion sur la complexité de ce processus.

Malgré les faiblesses qui demeurent dans la reconnaissance d'image, des progrès sont quand même accomplis. L'an dernier, Google avait donné un petit aperçu de ses recherches effectuées en partenariat avec l'université de Stanford. L'un des algorithmes de la firme de Mountain View est ainsi capable de décrire précisément le contenu d'une photo (mais il n'y arrive pas à chaque fois).

Cette controverse rappelle en tout cas furieusement celle des mots-clés inappropriés sur Flickr. Le service de stockage de photos a en effet décidé d'ajouter automatiquement des tags à des photos sans demander d'abord l'avis au photographe.

Sauf que le système a connu des ratés : le tag "singe" a été ajouté sur une photo montrant un homme à la peau noire, tandis qu'un autre cliché révélant une femme maquillée a reçu le mot-clé "animal". Il y a aussi eu des images de l'intérieur du camp des concentration de Dachau décrites comme des salles de sport, et du gaz mortel Zyklon B décrit comme une canette de boisson ou une conserve de nourriture.


Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !