Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser les commentaires pour donner votre avis, ou la page de contact pour nous contacter. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

« Le doute bénéficierait à la censure » : la loi sur la cyberhaine se fait recadrer par le CNNum

Le Conseil national du numérique a analysé la future loi sur la cyberhaine. L'instance consultative relève de nombreuses insuffisances qui pourraient conduire à des dérives sur la liberté d'expression.

Promise depuis des mois par le gouvernement, la proposition de loi visant à lutter contre la haine sur Internet vient donc d'atterrir le 20 mars à l'Assemblée nationale. Mais alors que son parcours législatif commence à peine, avec un examen par les parlementaires prévu en mai, le Conseil national du numérique a d'ores et déjà réagi, en publiant dès le lendemain un communiqué très réservé.

L'instance consultative chargée d'éclairer « de manière indépendante » l'exécutif sur tout sujet relatif au numérique ayant un impact sur la société et l’économie liste ainsi dix points que les pouvoirs publics « devraient prendre en compte » pour améliorer la rédaction du texte. Car si l'organisme ne le dit jamais clairement, on devine en creux que le texte de loi a des insuffisances et comporte des risques de dérives.

Le Conseil, qui a été remanié l'été dernier après un déplorable feuilleton qui a jeté le doute sur son indépendance, mais qu'assume le gouvernement, s'inquiète ainsi du flou qui entoure la notion de contenu « manifestement » illicite. Dans la mesure où ce sont les plateformes qui hébergent les commentaires et les contenus des internautes, et qu'on leur demande de faire la police, il faut des « définitions claires ».

« Le doute bénéficierait à la censure »

Or, du fait de la responsabilité juridique très lourde qui pèse sur les épaules des hébergeurs en cas d'inaction face à un contenu (des sanctions pécuniaires pouvant aller jusqu’à 4 % de leur chiffre d’affaires mondial annuel) et des délais imposés pour agir (24 heures), ces derniers pourraient préférer de sur-modérer, y compris pour des médias et des propos qui seraient tolérés par la justice.

« Le doute bénéficierait à la censure », juge ainsi le Conseil, en analysant l'état actuel du texte porté par la députée Laetitia Avia, qui a dirigé une mission d'information sur la haine en ligne. C'est l'inaction qui est « sévèrement punie », pas le zèle de censure. Et l'hébergeur préférera toujours retirer un contenu incertain plutôt que de risquer une sanction. Tant pis pour la liberté d'expression.

« L'appréciation du caractère haineux ou injurieux d’un discours ou d’une publication [peut] parfois, en fonction du contexte, être source de difficultés », pointe ainsi le Conseil. C'est pourquoi ce rôle « appartient traditionnellement au juge qui offre toutes les garanties de compétence et d’impartialité pour se prononcer sur le caractère illicite d’un contenu », sans aucun enjeu économique derrière.

Compétences déléguées aux entreprises

Ce point est d'ailleurs une source de préoccupation notable du Conseil. Les pouvoirs publics ont tendance à s'en remettre de plus en plus aux entreprises du numérique pour trancher des questions de libertés publiques. « Il est indispensable de prévoir un juste équilibre entre le recours aux mécanismes judiciaires, à la régulation et à l’auto-régulation », souligne-t-on chez les membres du CNNum.

Ils ajoutent que « le rôle du juge doit être fondamental dans tout dispositif de lutte contre les contenus haineux pour éviter les abus, protéger les victimes et offrir toutes les garanties nécessaires d’indépendance à l’égard tant des plateformes que du pouvoir exécutif ». Ces garanties ne peuvent par essence pas être apportées par des plateformes qui sont exposées juridiquement.

D'autres soucis sont soulignés, comme l'absence d'étude d'impact (qui n'est pas obligatoire dans le cas d'une proposition de loi) et son incompatibilité « avec les obligations européennes de la France », en particulier avec une directive européenne qui a abouti en France à la loi pour la confiance dans l'économie numérique (LCEN), qui organise la responsabilité des hébergeurs.

Le Conseil critique ici l'article 2 de la proposition de loi, qui prévoit que la connaissance des faits litigieux sera présumée acquise lorsque les utilisateurs ont transmis un signalement. C'est un renversement de ce qui est jusqu'à présent prévu dans les textes, où il est prévu d'engager la responsabilité des plateformes uniquement après l'envoi d'une notification et si elles n'ont pas réagi assez vite pour modérer.

Gare au solutionnisme technologique

Est aussi critiqué le recours à des filtres automatiques basés sur des algorithmes. « Les pouvoirs publics ne devraient pas appeler de leurs vœux l’utilisation de dispositifs de filtrage automatisé sur la base d’un hypothétique perfectionnement futur des dispositifs d’intelligence artificielle dans ce domaine hautement complexe », lit-on dans l'analyse de l'instance consultative. Ces filtres risquent soit de laisser passer des choses illicites, soit de bloquer des contenus légitimes. Or, l'appréciation d'un contenu considéré comme haineux nécessite aussi de tenir compte du contexte dans lequel il s'inscrit. Contexte qui échappera à un système.

Par ailleurs, le CNNum « regrette le fait qu’aucune précision ne soit donnée en ce qui concerne le déploiement de ces mécanismes de recours ou les conséquences en cas de manquement ». En particulier, le texte gagnerait à prévoir aussi des sanctions pour les plateformes trop zélées dans l'application du texte, afin de les dissuader d'avoir la main lourde.

Enfin, l'instance observe que le législateur et le gouvernement ne s'attaquent toujours pas à la faiblesse de la justice. Car ce n'est pas un problème de droit, mais de moyens : « Des dispositions législatives existent déjà, mais qu’elles ne sont pas appliquées de façon satisfaisante », rappelle l'organisme. L'arsenal législatif, pour être bien appliqué, a besoin de moyens. Pas d'un empilement de textes.