Comment Facebook détermine-t-il si une publication enfreint ou non son règlement ? Le site a pendant longtemps gardé secrètes ses directives de modération. Celles-ci ont été dévoilées au grand public le 24 mai. En voici les principaux points.

Facebook a levé pour la première fois de son histoire le voile sur ses règles internes de modération. Si celles-ci étaient déjà en partie connues du grand public grâce à des enquêtes conduites par plusieurs médias, leur mise en ligne permet désormais à chacun et à chacune de se rendre mieux compte des consignes que doivent suivre les modérateurs pour savoir si un contenu doit être supprimé ou non.

Ces directives portent sur des thèmes sensibles, où l’application d’une modération trop ou pas suffisamment stricte peut entraîner des critiques.

C’est particulièrement vrai lorsque la démarcation est floue entre un contenu licite et une publication qui ne l’est pas et que le curseur de l’inadmissible n’est pas toujours positionné au même endroit, la sensibilité du public n’étant en la matière pas homogène. D’ailleurs, l’équipe de modération peut aussi se tromper : c’est pour ça que Facebook prévoit désormais un recours.

Menaces

Distinguer un mouvement d’humeur d’une menace « réelle » et « sérieuse » nécessite la prise en compte de différents critères. Pour juger la crédibilité d’une intention hostile, le site vérifie notamment si une cible précise est définie, s’il y a une demande de rançon, si une image d’arme est montrée, si une tentative d’acquisition d’une arme a lieu ou si au moins deux indications (lieu, date ou méthode) sont publiées.

Facebook tient aussi compte d’autres éléments, « tels que le degré d’exposition et de vulnérabilité de la personne concernée ». Parmi les individus qui sont plus vulnérables que les autres figurent par exemple les chefs d’État, les élus nationaux, les témoins, les militants et les journalistes. La rubrique sur le risque d’une violence physique est l’une des plus développées du règlement interne.

Arme pistolet
CC Somchai Kongkamsri

Individus et organismes dangereux

Les personnes ayant de la sympathie pour les individus ayant commis des meurtres de masse ou en série ont tout intérêt à ne pas en faire part sur Facebook. Le site refuse en effet tout contenu faisant l’éloge de ces tueurs. Idem pour les organisations terroristes et les terroristes solitaires, les organisations animées par la haine et leurs principaux responsables et les organisations criminelles.

Facebook fournit au passage les définitions qu’il suit pour chaque cas et dans quelles circonstances tel groupe ou tel individu tombe dans l’une de ces catégories. Le site précise que l’interdiction porte aussi sur les symboles, les actes, les discours, les appels à les soutenir ou les actions en leur faveur. Le site peut faire des exceptions s’il existe « un contexte condamnant le contenu ou s’il est discuté de façon neutre ».

corps-trace
CC Heather Paul

Drogues et armes

La législation en matière de drogues et d’armes à feu varie évidemment d’un pays à l’autre. Cela étant dit, Facebook cherche à appliquer des règles cohérentes. Hormis le tabac et l’alcool, le site rejette tout ce qui a trait aux substances non thérapeutiques, en particulier le cannabis (bien qu’il puisse servir dans certains cas à des fins médicales). Il existe une exception, en cas de prescription pour accélérer le rétablissement.

Concernant les armes à feu, Facebook s’oppose aussi aux publications cherchant à vendre, donner, échanger ou transférer des armes à feu, des pièces d’armes, des munitions ou des explosifs entre particuliers. En revanche, pour les comptes identifiés comme appartenant à des personnes de plus de 21 ans, le site accepte la promotion par des sites web légitimes, des magasins physiques ou des marques d’armes.

cannabis
CC Martijn

Suicide

Le problème du suicide est abordé avec celui de l’automutilation. Dans les deux cas, il est interdit d’en faire la promotion, de dire comment procéder ou de s’organiser pour se nuire ou mettre fin à ses jours. « Sauf dans de rares cas d’intérêt journalistique, il est contraire à nos politiques de publier du contenu représentant une personne ayant commis un suicide ou une tentative de suicide », ajoute Facebook.

L’exception journalistique est assortie d’un avertissement, pointe Facebook, si l’actualité montre des photos ou des vidéos représentant une personne ayant commis un suicide. Cet avertissement s’affiche aussi dans le cas d’une « euthanasie ou un suicide assisté dans un contexte médical », parce ce sont des « contenus potentiellement dérangeants ».

Nudité des enfants

Vous voulez partager la photo de votre bébé dans le plus simple appareil ? Attention à bien rester dans les clous du règlement, car Facebook est strict : si les organes génitaux sont visibles, y compris à travers des vêtements transparents, si l’anus est visible ou s’il y a un gros plan sur des fesses totalement nues, alors la photo pourra être retirée. Idem si cette nudité concerne un enfant qui n’est plus en bas âge.

Le site explique que cette politique est prise « en raison du risque d’abus par d’autres personnes, mais aussi pour éviter que ces images puissent être réutilisées ou détournées ». Pour le reste, les règles sont très simples : l’exploitation sexuelle des enfants est absolument interdite, quelle que soit sa forme. En la matière, le réseau social procédera d’ailleurs à un signalement.

Intimidation

Facebook dit apporter une attention toute particulière aux mineurs, « car ils sont plus vulnérables et sont plus susceptibles d’être victimes d’intimidation en ligne ». Sont donc proscrits les messages les insultant, leur prêtant une liaison ou alléguant leur orientation sexuelle, les rabaissant ou les dénigrant, les menaçant, faisant en sorte de les exclure ou leur souhaitant le pire (maladie, handicap, mort).

Ces dispositions ne sont pas réservées aux enfants : elles peuvent aussi servir à protéger des adultes. Facebook indique également supprimer des pages ou des groupes qui sont organisés pour attaquer des individus mais aussi du contenu « retouché » pour rabaisser un individu, mais pas seulement. Cela pourrait s’appliquer aux photomontages ciblant les célébrités, par exemple.

Discours incitant à la haine

En la matière, Facebook classe les propos de ce type en trois degrés de gravité.

Le premier regroupe les messages déshumanisants, en comparant des personnes à déchets, à de la maladie ou à des matières fécales. Figure aussi dans cette catégorie les comparaisons à des sous-hommes ou tout ce qui tourne en dérision le concept d’incitation à la haine, d’un évènement qui y est lié ou des victimes qui ont subi cette haine.

Le deuxième porte sur les contenus affirmant l’infériorité d’une personne , en s’attaquant à son physique, à sa moralité ou à sa santé mentale. Les expressions de mépris (« … sont ce qu’il y a de pire ») de dégoût (« immonde », « ignoble », « dégoûtant ») sont aussi proscrites lorsqu’elles sont employées à l’encontre de personnes en raison de leurs caractéristiques (ethnie, religion, sexualité, nationalité, le genre, etc.).

Le dernier degré concerne « les appels visant à exclure ou à isoler une personne ou un groupe de personnes sur la base des caractéristiques ci-dessus », explique Facebook. Le site dit même interdire « les critiques à l’égard des politiques d’immigration et les arguments qui consistent à restreindre ces politiques », ce qui pourrait être ressenti comme l’impossibilité de parler de politique migratoire.

Racisme
CC Ben Fredericson

Violence explicite

Faut-il montrer la réalité du monde ou la masquer ? Sur la violence explicite, Facebook a choisi de positionner son curseur de façon à permettre l’affichage de contenus explicites si ceux-ci servent à sensibilité le public à différents enjeux, mais en limitant leur accès aux personnes déclarant être majeures. Il est interdit d’encenser cette violence, mais il est possible de la condamner.

Le feu vert de Facebook peut aller assez loin, en incluant des mutilations dans un contexte médical (démembrement, entrailles exposées, égorgement), des immolations dans un contexte politique ou médiatique, des vidéos d’enfants victimes d’agression, des abus sur des animaux, des actes de torture ou encore des photos de personnes blessées ou mortes avec une dépouille peu ou fortement dégradée.

violence bagarre
CC Paweł Kadysz

Nudité des adultes

En matière de nudité, les hommes et les femmes ne sont pas traités sur un pied d’égalité. Si un homme peut apparaître torse nu, une femme risque de subir une modération si elle fait apparaître ses seins avec les mamelons visibles. Mais il y a des exceptions : dans les arts d’abord, si des photographies montrent des personnages dans le plus simple appareil en sculpture ou en peinture par exemple.

Dans certaines circonstances, ensuite : si la photo porte sur une cicatrice de mastectomie, un allaitement de bébé ou un acte de protestation — on pense en particulier à la manière d’agir du mouvement Femen, où les femmes se montrent avec la poitrine révélée –, alors le site est censé se montrer conciliant. Idem si la publication a lieu à des fins pédagogiques ou sanitaires, ou pour sensibiliser à une cause.

Ça, c’est pour la légère nudité : pour le reste, Facebook rejette les contenus exposant les parties génitales, l’anus, un gros plan sur des fesses totalement nues, des rapports sexuels explicites, la présence de sécrétion découlant d’une activité sexuelle, du contenu fétichiste extrême, des activités évoquant des préliminaires (palpation ou stimulation de certaines parties du corps, y compris sous les vêtements).

venus-de-willendorf-statue
CC Ziko van Dijk

Fausses informations

Facebook ne tient pas à supprimer les fausses informations qui apparaissent sur son site, car il est parfois très difficile de distinguer ce qui relève de la satire, de l’avis personnel et de la tentative de manipulation. En revanche, et afin de ne pas « étouffer les débats publics productifs », l’entreprise américaine est disposée à en limiter « significativement » la diffusion, en les mettant moins en avant.

Pour limiter la propagation et l’éclosion de fausses nouvelles, sans pour autant les bloquer, Facebook indique qu’il agit au niveau du porte-monnaie, « en mettant fin aux incitations économiques », qu’il se base sur les travaux de médias de vérification tiers indépendants pour savoir quels sont les faux contenus et qu’il mobilise des logiciels d’apprentissage automatique pour essayer d’évaluer si telle information est fausse ou non.

Presse journal
CC Kaboom

Partager sur les réseaux sociaux