Alors que Microsoft, Facebook, Google et Twitter affichent tous désormais une volonté de participer ensemble à la censure des contenus extrémistes sur Internet, des luttes d’influence ont lieu en coulisses pour savoir par qui et comment doit être organisé le blocage automatisé des photos et vidéos.

Il y a dix jours, l’association américaine Counter Extremism Project fondée notamment par des anciens conseillers de George W. Bush appelait les géants du Web à adopter une nouvelle technologie de censure automatisée pour lutter contre la propagation de contenus extrémistes sur Internet. L’association dominée par une direction politique s’appuie sur la technologie d’un membre prééminent, le professeur Hany Farid, qui a déjà reçu le mois dernier le soutien financier de Microsoft pour adapter l’outil PhotoDNA (utilisé contre les images pédopornographiques) pour détecter et bloquer des photos ou vidéos de terroristes.

L’offensive médiatique n’est pas au goût de Facebook et Google

« Le but est d’aider à freiner la propagation de contenus terroristes connus avec une technologie qui peut scanner précisément et pro-activement le contenu public qui contient des images, de la vidéo ou de l’audio connus de terroristes », avait alors expliqué Microsoft. La technologie repose sur le même type d’algorithmes que ceux utilisés pour détecter les contenus piratés déjà signalés, qui ne peuvent pas être remis en ligne sur les plateformes qui vérifient que le contenu n’a pas déjà été supprimé.

Mais l’offensive médiatique n’est pas au goût de Facebook et Google, qui ne veulent probablement pas déprendre d’une technologie de Microsoft, et veulent assurer leur indépendance.

Microsoft contre le reste du Web ?

Ainsi selon l’agence Reuters, Facebook a commencé à organiser une contre-offensive visant à mettre sur pieds une méthode coopérative dont les objectifs seraient similaires, mais dont l’indépendance à l’égard du pouvoir politique serait mieux garantie. L’agence de presse affirme, selon deux sources proches du dossier, que Facebook et YouTube ont dores et déjà commencé à automatiser la détection et le blocage de vidéos terroristes, mais que les deux entreprises refusent de le reconnaître publiquement, car elles ne voient aucun intérêt à faire savoir qu’elles automatisent une censure.

Autant le blocage automatisé de contenus piratés ou de contenus pédopornographiques relève d’une qualification relativement objective du contenu et de son illégalité, autant une vidéo de propagande de guerre peut être vue de bien des manières différentes, qui brouillent les cartes entre censure à des fins juridiques et censure à des fins politiques. Si la vidéo qui montre explicitement une décapitation ne posera pas de difficulté, il en va autrement pour la vidéo d’un discours d’un leader d’une organisation, ou une vidéo qui présente le résultat d’un attentat, sous les traits d’une agence de presse.

Google-1900

Technologiquement, Google (avec ContentID) et Facebook disposent eux aussi d’outils qui permettent de détecter une vidéo déjà signalée, et de la bloquer. Le problème stratégique et politique est néanmoins de savoir quelle technologie doit primer, et qui doit alimenter et gérer la base de données des contenus extrémistes. C’est sur ce point qu’avait déjà échoué le projet CleanIT en Europe, À travers Hany Farid, le Counter Extremism Project soutient indirectement Microsoft. Twitter, lui, a fait savoir qu’il étudiait le dossier, sans prendre position pour le moment.


Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !