Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Pourquoi Facebook doit réafficher un message censuré sur l'hydroxychloroquine

La cour suprême mise en place par Facebook pour encadrer certaines de ses décisions a rendu ses premiers avis. Sur les cinq affaires jugées, quatre ont été renversées par la jeune instance. L'une d'elles concerne la France, et l'épineux sujet de l'hydroxychloroquine.

Est-ce un mauvais présage pour Facebook, qui a décidé de saisir sa « cour suprême » pour vérifier s'il a bien eu raison de bannir Donald TrumpSur les cinq premières affaires que la jeune instance indépendante a eu à traiter, le verdict est défavorable au réseau social américain à quatre reprises. Le sixième dossier, qui avait été annoncé en même temps que les cinq autres, n'a pas encore été traité.

« Dans quatre des cinq cas examinés, le conseil de supervision a voté pour annuler les décisions initiales de Facebook. Le conseil a également demandé à Facebook de clarifier davantage auprès de ses utilisateurs [sa politique de modération et ses règles] et la façon dont il entend les appliquer », commente l'institution sur Twitter, dans un message publié le 28 janvier.

Ce conseil de supervision repose sur le même principe qu'une cour suprême, à ceci près qu'il s'agit d'une instance privée. Installé au printemps 2020, il comporte 40 membres et ses décisions s'imposent à Mark Zuckerberg, le fondateur de Facebook. Aucun dossier n’est examiné par la totalité de cette cour, mais un panel de cinq membres. Son vrai crash test sera le blocage du compte de Donald Trump.

Une affaire concernant la France est tranchée

Il est à noter que sur les six affaires entre les mains de cette « cour suprême », deux concernent la FranceSi on ne connait pas le verdict pour l'une d'elles (la sixième affaire, qui porte sur des messages jugés haineux contre les Français, est toujours en instance), l'autre est tranchée. Elle implique l’hydroxychloroquine, traitement médical qui a donné lieu à un emballement national dès les débuts du coronavirus en France.

Ici, le problème ne portait pas directement sur l'efficacité de ce produit sur la maladie, mais sur un commentaire plus général d'un internaute qui « critiquait l'absence de stratégie de santé en France et affirmait qu'il existait un remède pour le covid-19 », selon le résumé de la cour suprême. La publication avait été retirée par Facebook pour « Violence et provocation », l'une des infractions prévues par son règlement.

Mais la cour suprême n'est pas d'accord avec les conclusions de Facebook et a renversé le verdict du site communautaire. Et cela s'impose à lui : dans une autre page décrivant plus en avant ses motivations, la cour exige le rétablissement de la publication litigieuse. Elle en profite pour présenter les arguments qui l'ont amenée à considérer que le site a eu la main trop lourde avec ce contenu.

« La combinaison de médicaments qui, selon le post, constitue un remède n'est pas disponible sans ordonnance en France et le contenu n'encourage pas les gens à acheter ou à prendre des médicaments sans ordonnance. Compte tenu de ces facteurs et d'autres facteurs contextuels, la cour a noté que Facebook n'avait pas démontré que le message atteindrait le niveau de préjudice imminent », lit-on.

« La cour a aussi estimé que la décision de Facebook n'était pas conforme aux normes internationales des droits de l'homme en matière de limitation de la liberté d'expression ». Elle fait valoir que le réseau social dispose d'autres outils pour gérer la désinformation, en ajoutant des labels d'avertissement par exemple. Elle estime que Facebook n'a pas montré en quoi il fallait spécialement supprimer cette publication.

Par ailleurs, les propres règles de Facebook sur la désinformation et le préjudice imminent, que le site a utilisé pour se prononcer, ont été décrites comme « anormalement vagues et incompatibles avec les normes internationales ». Ces règles sont en outre dispersées sur le site, ce qui n'aide pas le public à savoir ce qu'il peut faire ou non. Et enfin, les retouches de Facebook pour ajuster le tir n'étaient pas toujours bien répercutées dans ses règles, ce qui a pu entraîner des contradictions.

Des affaires qui viennent du monde entier

En conséquence de tout cela, la cour suprême émet trois principales recommandations pour corriger les insuffisances qui ont été observées en étudiant ce dossier. Cela inclut l'utilisation d'un éventail plus varié de mesures contre des publications suspectées de désinformation, sans forcément sortir immédiatement la carte de la suppression, une mise à jour de ses règles et une transparence accrue pour mieux expliquer de quelle façon il gère la désinformation en matière de santé.

La cour a, semble-t-il, conscience que ses décisions ne satisferont pas tout le monde. Sur Twitter, elle a rappelé « qu'aucune des affaires n'avait de réponse facile. Toutes ont soulevé des questions importantes sur les droits de l'homme et la liberté d'expression. Les membres ont examiné des facteurs allant des nuances de langage, à l'intention de l'utilisateur et au contexte plus général ».

Elle souligne aussi qu'elle doit raisonner globalement. « Nos premières affaires ont porté sur l'Asie, l'Europe, l'Amérique du Nord et l'Amérique du Sud. Des milliards de personnes dans le monde entier utilisent les services de Facebook. Une surveillance indépendante efficace de Facebook exige une approche globale ». Malgré tout, elle considère qu'il y a quand même un souci général : « Trop de décisions de modération de contenu sont aujourd'hui incohérentes et opaques ».