La proposition de loi contre la haine sur Internet inquiète à l’international. Un rapporteur spécial de l’ONU sur la liberté d’expression a fait part de ses inquiétudes à la France, qui a pris la plume pour répondre et dissiper ce qui apparaît comme des malentendus.

Adoptée le mardi 9 juillet 2019 par l’Assemblée nationale, la proposition de loi portée par la députée Laetitia Avia visant à combattre la haine sur Internet continue de faire parler d’elle. Non pas parce qu’elle aurait achevé son parcours législatif — il lui faut encore passer devant le Sénat — mais parce qu’elle a donné lieu à un échange diplomatique entre l’ONU et la France.

C’est en effet en plein mois d’août que le Britannique David Kaye, qui officie au sein de l’instance onusienne comme rapporteur spécial pour la promotion et la protection de la liberté d’opinion et d’expression, s’est fendu d’un courrier pour faire part de ses craintes à l’égard du texte. Plusieurs de ses dispositions l’ont en effet convaincu de « formuler diverses observations » à l’attention du gouvernement français.

David Kaye

David Kaye, en 2015.

Source : Maina Kiai

Pour qui suit méticuleusement l’avancée des débats parlementaires, les éléments que formule David Kaye ne constitueront pas une surprise. Le rapporteur spécial déplore par exemple la perspective de voir les entreprises privées se charger de la modération des contenus. C’est un point sur lequel des organisations comme La Quadrature du Net ou le Conseil national du numérique ont tiré la sonnette d’alarme.

« S’il est reconnu que les entreprises commerciales ont une responsabilité de respecter les droits de l’homme, les mesures de censure ne sauraient être déléguées à des entités privées », commente David Kaye. « L’appréciation du caractère illicite des contenus haineux ne peut être confiée aux seuls opérateurs de plateformes, au risque d’induire une privatisation des fonctions judiciaires ».

« La censure ne saurait être déléguée à des entités privées »

Il craint entre autres le possible recours massif à l’intelligence artificielle pour automatiser la modération. Autre motif de préoccupation : la loi « ne prévoit pas l’intervention d’un juge pour limiter la liberté d’expression ». De plus, David Kaye a l’intuition qu’un rôle trop grand de ces plateformes dans la modération en ligne risque d’accentuer une forme « d’abus de position dominante sur le marché ».

Outre la responsabilité accrue pesant sur les épaules des entreprises privées vis-à-vis de la modération des contenus sur Internet, le rapporteur spécial souligne le cadre difficile dans lequel elles sont plongées. Non seulement le délai de modération est court (24 heures pour le retrait ou le blocage de contenus), mais en plus les sanctions en cas de manquement sont sévères.

Ces paramètres « pourraient conduire les réseaux sociaux à surréguler l’expression, par mesure de précaution pour éviter de faire face à des amendes conséquentes. Une telle censure de précaution porterait atteinte au droit de chercher, de recevoir et transmettre des informations de toutes sortes sur Internet », anticipe David Kaye, comme le disent d’autres, comme la Commission Nationale des droits de l’homme.

Palais de justice tribunal de grande instance

Palais de justice, à Paris. // Source : Pierre Metivier

Le gouvernement prend la plume

Toutes ces tracas ont obtenu une réponse, le 23 août, par les services du secrétariat d’État en charge du numérique. Dans un courrier adressé à David Kaye, que l’intéressé a d’ailleurs salué sur Twitter pour sa promptitude à répondre et « l’esprit constructif » dont il fait preuve sur ce sujet, le gouvernement affirme comprendre son point de vue et partager ses objectifs. Néanmoins, l’exécutif entend lever tout malentendu.

Ainsi, s’il reconnaît « l’exigence fondamentale de préserver la liberté d’expression », Paris ne peut ignorer « l’impérieuse nécessité pour l’État d’apporter une réponse appropriée pour protéger les citoyens (notamment les plus fragiles) des attaques odieuses qu’ils subissent sur les réseaux sociaux ». C’est pour cela que le droit contient des limites à cette liberté, au profit notamment de l’ordre public et du respect d’autrui.

Édouard Philippe.

Édouard Philippe.

Source : Jacques Paquier

Répondant point par point aux problématiques soulevées par le rapporteur spécial, les services de Cédric O soulignent par exemple que le texte « ne vient pas modifier le champ des contenus rendus illicites au titre de la loi ni leur définition ». Il ne fait que « préciser et rendre opérationnelles les obligations prévues par la loi », en à clarifiant ce que recouvre la notion d’obligation de retrait « prompt » par les plateformes.

Le gouvernement balaie également la crainte de confier la modération à des sociétés. Il rappelle que la législation, via la loi pour la confiance dans l’économie numérique (LCEN), prévoit déjà cette obligation « depuis plus de quinze ans », sans que cela n’ait « soulevé de problèmes majeurs d’application ». Par ailleurs, des garde-fous sont prévus pour l’IA et s’assurer de la proportionnalité des mesures.

Le délai de 24 heures ne sera pas applicable « pour des contenus qui soulèveront des questions d’appréciation »

Sont ainsi évoqués le fait que cette loi ne s’appliquera qu’aux plus gros acteurs, afin de ne pas faire subir aux compagnies plus petites des obligations trop lourdes à poser, et que le délai de 24 heures ne touche que les contenus manifestement illégaux. « Par construction, il ne sera donc pas applicable pour des contenus qui soulèveront des questions d’appréciation ».

Au bout du compte, conclut l’exécutif, « c’est bien le juge qui demeurera compétent pour estimer si un contenu est licite ou non et il demeurera possible de contester en justice les décisions de la plateforme ». Et d’ajouter que cette loi « ne remet pas en cause les pouvoirs actuels du juge judiciaire s’agissant de la licéité des contenus », ni sa capacité « à garantir le respect de la liberté d’expression ».


Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !