Du gaz mortel Zyklon B décrit comme une canette de boisson ou une conserve de nourriture ? Voici le type d'aberrations que se permettent Yahoo et Flickr, en automatisant la description de photographies sans aucun contrôle préalable du photographe.

On savait bien que c'était une mauvaise idée de la part de Flickr que d'ajouter automatiquement des tags à des photos sans demander d'abord l'avis au photographe. Mais même si de nombreux utilisateurs avaient demandé à Yahoo de renoncer immédiatement à la fonctionnalité ajoutée sans leur accord, le groupe a insisté. Et aujourd'hui il a dû s'excuser, même s'il continue à s'obstiner à laisser une intelligence artificielle décrire automatiquement le contenu des photos, au risque de blesser les photographes, leurs sujets, et le public.

Le Guardian rapporte ainsi toute une série de tags très inappropriés que l'IA de Flickr a ajouté automatiquement à des photos. Tel homme de peau noire s'est ainsi vu décrire comme un "singe", une femme maquillée est affublée du tag "animal", tandis que des images de l'intérieur du camp des concentration de Dachau sont décrites comme des salles de sport.

"Nous sommes conscient des problèmes avec l'auto-tag imprécis sur Flickr et nous travaillons sur un correctif", s'excuse (quoique pas vraiment) Yahoo auprès du Guardian. "Même si nous sommes très fiers de notre technologie de reconnaissance d'images avancée, nous sommes les premiers à admettre qu'il y aura des erreurs et nous travaillons constamment pour améliorer l'expérience. Si vous supprimez un tag incorrect, notre algorithme apprendra de cette erreur et fera mieux à l'avenir".

Mais c'est à supposer que ceux qui ont uploadé des photos sur Flickr depuis une dizaine années aillent regarder comment leurs centaines voire leurs milliers de photos sont désormais décrites, et qu'ils possèdent encore leurs identifiants pour corriger les erreurs. Ou qu'ils ne soient pas morts.

Selon nos propres constats, comme le montre l'image ci-dessus (source), des boîtes de Zyklon B utilisées par les nazis dans les chambres à gaz sont décrites par l'intelligence artificielle de Flickr comme des boissons ou de la nourriture.

Mais au moins, il s'agit ici d'utilisations publiques d'algorithmes de reconnaissance des images. Imaginez ce que les entreprises, qui rivalisent toutes actuellement pour avoir la meilleure IA de reconnaissance de photos et vidéos, font sans que l'on en ait connaissance, pour analyser automatiquement nos photos et en déduire des informations sur nous-mêmes. 

Plus que jamais, il est temps d'exiger la transparence à ces entreprises privées, et de l'éthique.

Partager sur les réseaux sociaux

Articles liés