L’Assemblée a adopté l’article 7 du projet de loi sur les JO de 2024 à Paris. Il autorise l’emploi d’algorithmes dits intelligents pour traiter les images captées par les caméras, afin d’y déceler des situations « atypiques ». In fine, c’est aussi une surveillance comportementale de la foule.

Dans l’indifférence générale, ou presque. Et sans réelle surprise quant à l’issue du vote. Ce jeudi 23 mars 2023, l’Assemblée nationale a adopté l’article sans doute le plus controversé du projet de loi relatif aux Jeux Olympiques et Paralympiques de 2024. Celui-ci porte sur l’utilisation de la vidéosurveillance algorithmique, aussi appelée VSA.

Le texte, qui comporte en tout 19 articles, n’a pas achevé son « cheminement démocratique ». Il est toujours en discussion à la chambre basse du Parlement. Les députés devront notamment adopter le projet de loi dans sa globalité. Ensuite, son examen se poursuivra notamment en deuxième lecture au Sénat et à l’Assemblée.

Surveillance du comportement de la foule

Cet article polémique propose l’instauration d’une expérimentation en France, via les caméras de surveillance, d’algorithmes avant, pendant et après les Jeux Olympiques à Paris. Le dispositif durerait jusqu’au mois de décembre 2024. Dans des versions antérieures du texte, l’essai devait se prolonger jusqu’à la fin du mois de juin 2025.

La VSA exploite des technologies d’intelligence artificielle pour effectuer, in fine, une surveillance comportementale de la population. En effet, l’outil doit servir à repérer des évènements atypiques et prédéterminés, aux abords et dans les enceintes sportives, et au-delà. Outre le sport, les manifestations récréatives et culturelles sont aussi concernées.

C’est l’argument de la menace terroriste qui a servi de fil conducteur pour pousser cette disposition. Avec la VSA, a plaidé le ministre de l’Intérieur Gérald Darmanin, il sera possible de déceler automatiquement un colis abandonné. Les forces de l’ordre seraient ensuite alertées et dépêchées sur place pour sécuriser les lieux ou effectuer une levée de doute.

Gérald Darmanin // Source : Flickr/Jacques Paquier
Gérald Darmanin, ministre de l’Intérieur. // Source : Flickr/Jacques Paquier

Le ministre l’a présenté comme un « outil d’aide à la décision [pour les] forces de l’ordre » et insisté sur les garanties, selon lui nombreuses, pour éviter des écarts. Il y en a vingt-huit en tout, dont celle interdisant « tout rapprochement (…) avec d’autres fichiers à caractère personnel ». Le Sénat a déjà adopté en première lecture le texte, à la fin janvier.

La VSA pourrait servir plus généralement en cas d’atteinte grave à la sécurité des personnes, comme un mouvement de foule, des départs de feu, ou bien des densités excessives de personnes. Par contre, la VSA ne sera pas en capacité de reconnaître des personnes en analysant leur visage. La reconnaissance faciale sera absente de cette surveillance algorithmique.

Malgré la criticité du sujet, l’hémicycle de l’Assemblée était largement désert. Sur les 577 députés, seuls 73 étaient présents pour le vote (59 voix pour, 14 voix contre), suggérant un désintérêt large de la représentation nationale pour le sujet. Les circonstances dans lesquelles ce vote sur l’article 7 a eu lieu jouent certainement pour beaucoup.

Un texte voté en plein mouvement social sur les retraites

Le texte est discuté en pleine crise sociale sur les retraites, en pleine journée de mobilisation intersyndicale réclamant le retrait du projet de réforme voulu par le gouvernement d’Emmanuel Macron. Quelques jours plus tôt, cette réforme passait sans vote — avec une onzième utilisation du 49.3 — et une motion de censure a été repoussée de justesse par la majorité présidentielle.

« Le plus gros coup d’accélérateur à la gouvernementalité algorithmique jamais voté… dans une indifférence assez générale et à l’ombre de la colère sociale », a ainsi relevé Félix Tréguer, membre de l’association La Quadrature du Net, post-doctorant à Sciences Po et chercheur associé au CNRS. La Quadrature du Net a dénoncé ce vote dans un communiqué.

« À l’ombre du tumulte de la réforme des retraites, et grâce à une procédure comme d’habitude extrêmement rapide, le gouvernement a réussi à faire accepter une des technologies les plus dangereuses jamais déployées », s’alarme l’association, qui a relevé un triple mensonge de l’exécutif. Un mensonge technique, un mensonge de l’utilité et surtout un mensonge sur la biométrie.

Cérémonie de clôture des Jeux Olympiques // Source : CIO
C’est essentiellement pour les Jeux Olympiques, mais pas seulement, que ce texte est adopté. // Source : CIO

La biométrie est une technologie qui « identifie, analyse, classe en permanence » ce qui relève d’une personne. Cela inclut aussi les gestes, silhouettes, démarches et attributs physiques qui peuvent être captés avec la vidéosurveillance par l’IA. La reconnaissance faciale n’est certes pas mobilisée. Mais d’autres caractéristiques peuvent être captées, interprétées et utilisées.

Le gouvernement a malgré tout « continué de s’enfoncer dans ce mensonge à la fois technique et juridique. Ainsi la France viole à nouveau le droit de l’Union européenne et consacre sa place de championne européenne de la surveillance ». L’association le dit sans détours : la France est aujourd’hui le « premier pays d’Europe à légaliser la surveillance biométrique. »

L’expérimentation devrait débuter dès la promulgation de la loi, ce qui permettra de s’en servir lors de la Coupe du monde de rugby, à l’automne. Ensuite, elle couvrira les Jeux Olympiques et Paralympiques l’année suivante, pour en principe s’achever fin 2024. Une expérimentation qui pourrait néanmoins perdurer… en la matière, le provisoire se transforme parfois en permanent.

une comparateur meilleur vpn numerama

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !