Google a décidé de créer une grande base de données d'images signalées comme pédopornographiques par les associations de protection de l'enfance, pour que tous les professionnels du web puissent identifier ces images et les supprimer automatiquement sans avoir à les regarder. Une initiative incontestable, qu'il convient pourtant de contester pour les risques démocratiques qu'elle pose.

"Notre métier est de rendre l'information largement disponible, mais il y a certainement des "informations" qui ne devraient jamais être créées ou trouvées. Nous pouvons faire beaucoup pour nous assurer qu'elles ne soient pas disponibles en ligne", assure Jacquelline Fuller, la directrice des activités philanthropiques de Google. Une telle déclaration aurait de quoi effrayer, mais elle s'applique à une catégorie de contenus presque universellement reconnus comme inacceptables et condamnables : les images pédopornographiques.

Google a en effet annoncé ce week-end le lancement d'un fonds de 2 millions de dollars, baptisé "Fonds pour la Technologie de Protection de l'Enfant", qui vise à mettre en commun des technologies permettant de combattre la présence d'images destinées aux pédophiles sur Internet. Concrètement, Google va mettre à disposition des professionnels du web une immense base de données sur laquelle figureront les signatures numériques des images jugées pédopornographiques, laquelle permettra aux hébergeurs et aux moteurs de recherche de reconnaître automatiquement les images interdites, pour les supprimer sans même avoir à les vérifier manuellement.

"Chaque image offensante obtient en effet un ID unique que nos ordinateurs peuvent reconnaître sans que des humains aient à les voir encore", explique Jacquelline Fuller. Pour figurer dans la base de données, les images doivent avoir été marquées comme "pédopornographiques", non pas par la police ou par un juge, mais par l'une quelconque des associations partenaires, telles que le National Center for Missing and Exploited Children, ou l'Internet Watch Foundation (IWF).

Or l'initiative, qu'il faut certainement saluer, n'est pas sans poser questions. On se souvient en effet que c'est précisément l'Internet Watch Foundation qui avait jugé pornographique une pochette de Scorpions, créant un blocage général de Wikipedia en Grande-Bretagne, où les FAI faisaient confiance à la liste de l'IWF pour mettre en oeuvre un filtrage du web. Si la base de données de Google avait été mise en oeuvre à l'époque, et respectée par tous les hébergeurs sur Internet, l'image aurait simplement disparu partout sur Internet, ce qui soulève nécessairement des questions sur la liberté d'expression et de communication.

Il s'agit ici de censurer la pédopornographie, ce qui interdit tout débat public ; mais l'initiative de Google n'est pas sans rappeler l'initiative Clean IT de la Commission Européenne, à l'ambition beaucoup plus large. Il s'agissait précisément de mutualiser une base de données de contenus supprimés par les hébergeurs, pour qu'un contenu supprimé chez l'un ne puisse pas réapparaître chez l'autre. L'idée a heureusement fait chou blanc, mais Google montre qu'elle peut resurgir à tout moment.

Or dès lors qu'une technologie est mise en oeuvre pour lutter contre la pédopornographie, il devient difficile de justifier de ne pas l'étendre aux contenus prétendument racistes, à ceux qui feraient l'apologie du terrorisme, aux contenus piratés, ou encore aux photos qui violeraient la vie privée de tiers. Ce sont elles-aussi, aux yeux de beaucoup, des "informations qui ne devraient jamais être créées ou trouvées".


Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !