Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Meta : la modération du métaverse, le nouveau cauchemar de Facebook et des internautes ?

La modération du métaverse de Facebook pourrait être impossible à l'échelle du globe, semble craindre le directeur technique de Meta dans une note interne. C'est pourtant indispensable, car un échec pourrait menacer l'avenir du projet.

Le métaverse de Facebook n'existe pas encore vraiment, que déjà se pose la question de sa modération. Comment, en effet, assurer la bonne tenue de ce nouvel espace que le réseau social veut investir dans la décennie qui vient ? Comment assurer le coup, alors que le site semble déjà incapable d'y parvenir sur ses plateformes existantes (en témoignent les reproches dont il fait régulièrement l'objet) ?

L'enjeu est plus crucial qu'il n'y paraît, car une mauvaise modération dans Meta pourrait peut-être s'avérer plus désastreuse pour le public (et, à terme, pour l'entreprise) que sur Facebook et Instagram. Du fait de l'usage de la réalité virtuelle, une technologique est par essence plus immersive qu'un site web ou une application mobile. Les ratés de modération pourraient heurter plus fortement le public.

Une faillite de la modération pourrait tuer Meta

Une note interne consultée par le Financial Times et relayée le 12 novembre 2021 indique que la direction de Meta sait que des affaires à répétition pourraient « tuer » le métaverse, s'il s'avère qu'il n'y a aucune maîtrise des contenus et des propos qui circulent en son sein. En fait, le mémo va jusqu'à mettre en garde le groupe qu'une faillite de modération pourrait constituer une « menace existentielle » pour le devenir de Meta.

Les égarements de la modération sur les deux principales plateformes de l'entreprise -- à savoir Facebook et Instagram -- ont déjà été largement documentés dans les médias et sur les réseaux sociaux par les internautes. Ils sont aussi l'un des angles d'attaque de la lanceuse d'alerte Frances Haugen, qui accuse le réseau social de privilégier les profits au détriment de la sûreté du public.

On pourrait craindre que les affaires de harcèlement, de haine, de violence, de sexisme ou de tout autre comportement toxique se propagent aussi dans la réalité virtuelle de Meta. La particularité même de ce nouveau service pourrait faire émerger de nouveaux types de problèmes -- on peut imaginer l'apparition d'attitudes offensantes via les petits avatars virtuels que pourraient incarner les particuliers.

Impossible de bien modérer Meta à une échelle globale ?

D'après les indications contenues dans la note, le directeur technique de Meta, Andrew Bosworth, désirerait un degré de sécurité proche de ce que l'on pourrait connaître chez Disney, quitte, visiblement, à aller très loin dans les restrictions et dans le lissage des comportements. Mais dans le même temps, l'intéressé paraît admettre que c'est sans doute illusoire d'y parvenir au-delà d'un certain seuil de fréquentation.

Facebook et Instagram accueillent à eux deux des milliards d'internautes et, même s'il y a des dizaines de milliers d'employés dévolus à la modération, même si des outils d'analyse automatique sont mobilisés, la bonne application des règles communautaires ne satisfait jamais tout le monde. Parfois, il lui est reproché de trop modérer, et de nuire à la liberté d'expression, parfois pas assez, et de nuire aux individus.

À cela s'ajoute une perception variable sur certains propos ou contenus, notamment en fonction de la législation de tel ou tel pays, mais aussi de l'âge des internautes -- même si un contenu peut être licite en France, celui-ci peut ne pas convenir à un mineur. En somme, Facebook fait depuis bien longtemps face à une équation insoluble -- mais à supposer qu'il veuille bien la résoudre, ce dont doute Frances Haugen.

Pour autant, même si une modération efficace pour une communauté au-delà d'un certain seuil est pratiquement impossible, à en croire Andrew Bosworth, cela ne signifie pas qu'il ne faut rien entreprendre. Le même jour que la parution de l'article du Financial Times, le directeur technique s'est fendu d'un billet de blog qui discute de la façon de garder les gens en sécurité dans la réalité virtuelle.

Des outils classiques de modération devraient être disponibles, comme le blocage d'un individu de sorte qu'il ne puisse plus vous contacter, vous ajouter en ami, vous rechercher ou vous inviter. La possibilité de signaler toute attitude jugée inappropriée ou illicite devrait aussi figurer dans le métaverse. Il reste à voir si cet examen du signalement sera fait par un humain ou non et selon quelles règles.

En la matière, le directeur technique de Meta assure que des discussions de travail ont lieu tous les jours en interne, car « il y a des problèmes sociétaux et techniques difficiles en jeu ». Des échanges sont aussi en cours avec des tiers extérieurs, ajoute Andrew Bosworth, et des investissements conséquents sont rappelés, comme une enveloppe de 50 millions de dollars pour plancher sur les enjeux éthiques de Meta.

De façon générale, le métaverse de Facebook pourrait être un domaine dans lequel les règles du réseau social sont appliquées avec beaucoup plus de sévérité et de constance que ce qui existe sur Facebook et Instagram -- c'est du moins la trajectoire logique, si le directeur technique de Meta désire une sûreté et un environnement « à la Disney ». Quitte à gommer la moindre aspérité.