Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Entre IA et modération humaine, Facebook dévoile ses outils contre la propagande terroriste

Face aux critiques sur la prolifération de propagande terroriste sur ses pages, Facebook entend prouver qu'il lutte efficacement dans ce domaine. Le réseau social dévoile pour ce faire ses pratiques, à base de détection automatisée grâce à l'intelligence artificielle et de recours à des équipes bien humaines. 

Questions qui fâchent, première partie. Dans la foulée du lancement de cette catégorie destinée à débattre des « questions difficiles » -- thématiques de société, pratiques du réseau social -- que peuvent se poser ses membres, Facebook a inauguré l'initiative en abordant un sujet majeur : le terrorisme.

« Au lendemain des récentes attaques terroristes, la société s'est interrogée sur le rôle des entreprises de la tech dans la lutte contre le terrorisme en ligne. Nous souhaitons répondre à ces questions sans détour. [...] Le terrorisme n'a pas sa place sur Facebook » affirme l'entreprise. Facebook est en effet sous le feu des critiques pour la présence de tel contenu sur ses pages comme pour son manque la réactivité de ses équipes de modération. Ce mardi 13 juin, Theresa May et Emmanuel Macron ont notamment appelé les entreprises de la tech à plus d'efforts dans cette lutte.

Dans cette note de blog, Monika Bickert, directrice de la politique internationale et de Brian Fishman, en charge de la politique anti-terroriste du réseau social, reviennent sur les mesures concrètes adoptées par l'entreprise pour lutter contre la propagande terroriste.

Suppression préventive grâce à la détection automatique

Une grande partie du travail de Facebook repose sur l'intelligence artificielle. Dans l'idée, celle-ci doit lui servir à repérer -- et censurer -- ces contenus illégaux avant même que les utilisateurs n'y soient exposés. Pour ce faire, la plateforme s'appuie sur un système de reconnaissance d'image : elle garde notamment en mémoire les photos ou vidéos de propagande déjà postés par l'organisation État islamique de façon à ce que toute personne qui tente ensuite de les remettre en ligne s'en voit empêchée de manière préventive.

Facebook rappelle au passage sa collaboration avec d'autres plateformes comme YouTube et Twitter, qui partagent une base de données des vidéos et photos illégales pour les repérer plus vite.

Le réseau social utilise aussi un système de compréhension du langage, qui permet là encore de s'appuyer sur du contenu déjà censuré pour repérer plus vite des éléments similaires. Cet apprentissage constant permet à l'IA de détecter les publications identiques. Les groupes ou pages terroristes font l'objet d'une surveillance particulière : un compte lié avec plusieurs autres déjà suspendus pour leur contenu terroriste, ou qui partage des contenus très similaires, est ainsi vite identifié. Au même titre que les récidivistes, ces utilisateurs qui recréent des comptes après avoir été suspendus.

WhatsApp

Un appel à faciliter le partage des données avec WhatsApp

Facebook profite au passage de cette présentation pour appeler à un plus grand partage de données entre son cœur d'activité et ses autres services, comme la messagerie instantanée WhatsApp ou le réseau social Instagram . « Au vu des données restreintes que certaines de nos applis récoltent [...], la possibilité de les partager entre [toutes les plateformes] est indispensable pour en assurer la sécurité. » Le message est loin d'être dénué d'arrières-pensés alors que Facebook vient d'être condamné par la justice européenne pour avoir autorisé le partage de données personnelles de WhatsApp vers Facebook après avoir promis le contraire lors du rachat du service.

L'entreprise de Mark Zuckerberg rappelle aussi que la modération d'utilisateurs bien humains reste indispensable pour empêcher les dérives liées à cette lutte contre la propagande terroriste. Le réseau social cite l'exemple d'une photo de membre(s) de l'organisation État islamique, reconnaissables au drapeau noir du groupe terroriste : elle peut aussi servir d'illustration à un article de presse ou à un article qui déconstruit la propagande du groupe. Deux cas dans lesquels toute censure est à éviter.

L'entreprise cite en exemple le travail de son équipe de modération et l'arrivée prochaine de 3 000 modérateurs supplémentairesCe renfort semble toutefois dérisoire face à l'ampleur de la tâche, surtout quand on sait que ces modérateurs doivent non seulement traiter ce contenu terroriste mais aussi les cas de suicide, de violence et les fake news.

Le réseau social révèle au passage qu'il s'appuie sur 150 personnes dont le travail est entièrement consacré à l'anti-terrorisme. Parmi celles-ci, on trouve des « spécialistes universitaires, d'anciens procureurs ou policiers [...] et des ingénieurs ».

« Un défi énorme »

Facebook aborde enfin la question, sensible, du chiffrement, que les hommes et femmes politiques citent régulièrement comme un enjeu majeur de la lutte anti-terroriste, sans forcément en comprendre le fonctionnement : « Au vu du fonctionnement du chiffrement de bout en bout, nous ne pouvons pas lire le contenu des messages -- mais nous fournissons les informations que nous pouvons aux requêtes des forces de l'ordre compétentes, dans le respect de la loi et de nos propres règles d'utilisation. »

Si les efforts de Facebook sont bien réels, l'entreprise reconnaît elle-même ne pas détenir de solution miracle -- tout en refusant d'être tenue pour seule responsable de ce problème : « Nous ne voulons pas donner l'impression qu'il existe la moindre solution technique facile. Assurer la sécurité des [utilisateurs] sur une plateforme utilisée par près de 2 milliards d'utilisateurs mensuels, qui postent et commentent dans plus de 80 langues aux 4 coins du monde représente un défi énorme. »