Une association américaine de défense des libertés civiles reproche à Rekognition d'être inefficace et dangereux. L'outil de reconnaissance faciale d'Amazon a en effet identifié à tort des membres du Congrès américain comme des criminels.

L’union américaine pour les libertés civiles (ACLU) s’était déjà inquiétée de voir l’outil de reconnaissance faciale d’Amazon mis à disposition des gouvernements. Le 26 juillet 2018, l’association à but non lucratif a montré que cet outil, baptisé Rekognition, était surtout loin d’être efficace.

Sur son site, l’ACLU explique avoir testé le système de reconnaissance faciale d’Amazon à l’aide de photographies des visages de 535 membres du Congrès américain. Elle les a confronté à 25 000 clichés « mugshot », ces photographies prises lors d’arrestations, où seuls le visage et les épaules du prisonnier sont cadrés, de face puis de profil.

28 membres identifiés comme criminels

L’association a alors laissé Rekognition travailler. Si aucun des membres du Congrès ne figurait dans la liste des photographies de prisonnier, l’outil de reconnaissance faciale d’Amazon a identifié 28 correspondances : autrement dit, Rekognition a considéré que ces membres du Congrès étaient des criminels.

ACLU

« Les membres du Congrès qui ont été faussement identifiés dans la base de photos de criminels que nous avons utilisée pour ce test incluent des Républicains et Démocrates, des hommes et des femmes, des législateurs de tous âges, originaires de tout le pays », assure l’association américaine.

Un biais raciste

L’ACLU explique avoir utilisé les paramètres par défaut de Rekognition. L’association s’est d’ailleurs aperçue que la reconnaissance faciale de cet outil souffrait d’un biais raciste : 39 % des membres du Congrès identifiés comme des criminels se trouvent être des personnes non blanches (qui elles représentent 20 % des correspondances établies par l’outil).

« Si les forces de l’ordre utilisent Amazon Rekognition, il n’est pas difficile d’imaginer un policier obtenant un ‘match’ qui lui indiquerait qu’une personne à déjà été arrêtée pour port d’arme dissimulée, ce qui biaise cet officier avant même qu’il ait rencontré cette personne. Ou que les forces de l’ordre viennent sonner chez une personne pour l’interroger et fouiller sa maison, à cause d’une fausse pièce d’identité », alerte l’ACLU.

Amazon répond que l’outil était mal calibré

Sollicité par nos confrères de The Verge, un porte parole d’Amazon estime que les résultats sont liés à un mauvaise calibrage de Rekognition. L’association a en effet utilisé le seuil de confiance par défaut, établi à 80 %. Or, Amazon assure qu’il faut régler l’outil de reconnaissance faciale sur un seuil de 95 % lorsque les données sont aussi sensibles. Amazon estime que le réglage par défaut à 80 % est plutôt recommandé pour identifier des animaux ou des objets.

Néanmoins, l’ACLU reproche à Amazon de ne pas faire cette précision lors du processus d’installation de Rekognition, et de ne pas empêcher les forces de l’ordre qui utilisent son outil d’utiliser ce paramètre réglé par défaut.

Le logiciel d’Amazon, qui coûte moins de 12 dollars par mois, est certes abordable, mais l’ACLU tient surtout à démontrer son inefficacité. L’association s’inquiète d’autant plus de le voir utilisé à l’heure actuelle par des forces de l’ordre aux États-Unis.

Partager sur les réseaux sociaux