Jusqu'où doit-on accepter l'automatisation de la traque de comportements illicites dans les activités privés des individus sur internet ? Condamné pour corruption de mineurs, Jean-Luc Lahaye avait été repéré par un algorithme de Facebook. Ses messages privés ont été lus par le réseau social, qui l'a dénoncé. La méthode s'arrêtera-t-elle aux seuls crimes et délits sexuels ? Le débat doit s'ouvrir, dès maintenant.

Peut-on tout se permettre au nom de la protection des enfants ? En France, comme le rapporte Rue89, le chanteur Jean-Luc Lahaye a été condamné à un an de prison avec sursis pour corruption de mineurs, après que ses conversations privées avec de adolescentes furent lues, étudiées et dénoncées par Facebook aux autorités judiciaires. Sans l’intrusion de Facebook dans la vie privée de l’artiste et des jeunes filles (qui ressentent la procédure comme une « honte »), l’homme n’aurait probablement jamais été démasqué ni poursuivi, les victimes et leurs parents ayant eux-mêmes préféré ne pas porter plainte.

Comme Google qui avait été mis en cause suite au signalement de photos pédophiles envoyées par Gmail, Facebook utilise un algorithme pour détecter automatiquement sur ses serveurs les comportements d’internautes dont l’activité pourrait être considérée comme illégale si elle était découverte, et s’autorise alors à violer le secret des correspondances au nom de l’intérêt supérieur de la traque des pédophiles en puissance.

Dans un reportage réalisé par Reuters en 2012 au sujet de l’utilisation d’algorithmes pour la modération des contenus, le directeur de la sécurité de Facebook, Joe Sullivan, avait expliqué que la firme utilise un outil qui détecte les comportements suspects en fonction notamment des relations (demandes d’amis), et de la proximité des discussions privées avec des archives de discussions ayant effectivement précédé des délits ou crimes sexuels. « Nous n’avons jamais voulu établir un environnement dans lequel nos employés regardent des communications privées, donc il est très important que nous utilisions une technologie qui a un très faible risque de faux positifs« , expliquait-il.

DE LA DETECTION DE PHOTOS PÉDOPHILES…

« Notre métier est de rendre l’information largement disponible, mais il y a certainement des « informations » qui ne devraient jamais être créées ou trouvées« , s’était justifié pour sa part Google, au moment d’annoncer la création d’un « Fonds pour la Technologie de Protection de l’Enfant » qui viserait à mettre à disposition de tous les intermédiaires de l’internet une base de donnée dans laquelle figureraient les signatures électroniques d’images pédopornographiques, pour faciliter leur détecter. « Chaque image offensante obtient en effet un ID unique que nos ordinateurs peuvent reconnaître sans que des humains aient à les voir encore« , expliquait Google.

Google utilise pour ce faire la technologie PhotoDNA mise au point par Microsoft pour les autorités policières, et utilisée depuis par Google, Twitter et Facebook. Elle a été offerte au Centre National pour les Enfants Disparus ou Exploités (ICMEC), mais continue de faire l’objet de développements par la firme de Redmond. Il s’agit, selon Microsoft, « d’aider à trouver, rapporter et éliminer certaines des pires images connues de pornographie infantile en ligne, en aider à identifier des milliers de ces images horribles qui auparavant n’auraient pas été détectées« .

« En fournissant aux autorités judiciaires cette technologie puissante, notre objectif est d’aider à accélérer les enquêtes, limiter l’exposition des agents aux effets corrosifs de la vision d’images de viols d’enfants, et de renforcer l’application de la loi en identifiant rapidement et en sauvant les victimes, et en faisant sortir les agresseurs d’enfants des rues« , ajoutait Microsoft.

… A LA DETECTION DE TOUS COMPORTEMENTS SUSPECTS

Mais dans le cas de Jean-Luc Lahaye, qui a été relaxé de toute accusation de détention d’images pédopornographiques, il semble que ce n’est pas l’échange de photographies qui a alerté le réseau social, mais des algorithmes chargés d’étudier plus globalement le comportement des utilisateurs et de trouver ceux d’entre eux qui pourraient être des agresseurs sexuels.

Parmi les critères pris en compte par l’algorithme figureraient en effet le fait de changer fréquemment sa date de naissance pour se faire passer pour mineur, ou de rechercher en priorité des conquêtes féminines jeunes sur Facebook, lors des demandes ou ajouts d’amis. Lorsque l’algorithme détecte un suspect, Facebook prend la liberté de consulter ses messages privés pour vérifier si, effectivement, il héberge un délinquant potentiel, et en alerter alors les services compétents.

« Notre équipe travaille très dur pour faire de ce monde un endroit meilleur pour les enfants et un lieu misérable pour tous ceux qui voudraient leur faire du mal –- c’est quelque chose dont nous sommes très fiers« , se félicite Facebook lorsqu’il est accusé de violer la vie privée de ses utilisateurs dans son envie de se faire chevalier blanc.

Mais la question se pose des limites d’un tel algorithme à l’avenir. S’il suscitera très peu d’oppositions pour la traque de délinquants sexuels, il pourrait en revanche poser davantage de questions lorsqu’il s’agira de traquer les racistes qui n’acceptent que des blancs comme amis, de traquer les fraudeurs du fisc et des organismes sociaux qui utilisent Facebook pour trouver des clients non déclarés, d’identifier ceux qui appartiennent à un groupe connu pour commettre des violences quelconques, de repérer ceux qui proposent de la drogue à leurs amis ou qui s’offrent comme prostitué(e). Il n’y a guère de limites techniques à ce que pourra faire le type d’algorithme que la France installe pour traquer les terroristes. Il n’y aura que des limites éthiques, qui dépendront aussi et surtout de ce que les utilisateurs seront prêts à accepter.

Et qui décidera que tel crime ou délit mérite d’être détecté par une IA, mais que tels autres ne le doivent pas ? Qui dresse la hiérarchie des violences et des victimes ?

Si l’on laisse faire cette dérive vers l’automatisation de la traque d’infractions, la question ne sera plus de savoir si l’on n’a rien à se reprocher, mais si l’on pourra avoir quelque chose à se reprocher sans que ça soit immédiatement détecté, et rapporté. Songeons que l’outil de détection n’a été mis en place qu’il y a 3 ans. Qu’en sera-t-il dans 10, 30 ou 300 ans ?

Partager sur les réseaux sociaux

Articles liés