Google, Facebook, Twitter et Microsoft sont avertis : s'ils ne font pas davantage dans la lutte contre les contenus illicites, la Commission européenne pourrait les y obliger en modifiant la législation encadrant leur responsabilité juridique.

La présence de contenus illicites sur Internet qui incitent à la haine, à la violence et au terrorisme va-t-elle conduire l’Union européenne à modifier sa législation pour tordre le bras des hébergeurs qui ne feraient pas assez d’effort pour les retirer rapidement ? C’est la menace à peine voilée faite jeudi 28 septembre par la Commission : remuez-vous pour nettoyer vos espaces ou nous allons légiférer contre vous.

Pour justifier son coup de pression, Bruxelles évoque la « prolifération des contenus illicites » sur les plateformes, notamment sur les services fournis par les géants du net. Or, celles-ci « doivent jouer un rôle de plus en plus important et accroître leur responsabilité sociale », « étant donné qu’elles jouent un rôle de plus en plus important dans la fourniture d’accès à l’information », relève la Commission.

base-data-donnees
CC Thomas Hawk

D’où la décision de publier de « nouvelles orientations » qui «  invitent » les hébergeurs à agir beaucoup plus fortement, et volontairement, contre ces contenus illégaux. Une invitation quelque peu contrainte néanmoins, dans la mesure où Bruxelles laisse la porte ouverte à la prise de « mesures législatives complétant le cadre réglementaire en vigueur » si ce qui est proposé ou accompli n’est pas à son goût.

Consciente qu’il faut du temps aux plateformes pour développer des stratégies qui répondent à ses exigences, et qu’il en faut aussi pour les évaluer, la Commission fait savoir qu’elle leur laisse quelques mois — jusqu’en mai 2018 — pour travailler le sujet. Mais le message adressé est on ne peut plus clair : soyez efficaces sinon le cadre fixant votre responsabilité juridique pourrait évoluer.

Pendant cette période, Bruxelles « suivra attentivement les progrès accomplis par les plateformes ».

Une invitation quelque peu contrainte

Quelques pistes sont avancées par la Commission européenne. Des outils qui doivent « assurer la détection et la suppression rapides et proactives des contenus illicites en ligne » et « d’empêcher [leur] réapparition », ce qui ouvre la voie à la mise en place de mesures de filtrage, puisqu’il s’agit d’agir préventivement afin d’empêcher un contenu déjà retiré de réapparaître ultérieurement.

D’ailleurs, Bruxelles « encourage vivement l’utilisation et le développement d’outils automatiques permettant d’empêcher la réapparition d’un contenu précédemment supprimé ». C’est une logique de « notice and stay down », qui consiste à empêcher sa remise en ligne par d’autres internautes. Elle est plus stricte que celle de « notice and take down », qui consiste juste à retirer le contenu visé par une injonction.

Des demandes qui ne sont pas nouvelles. Déjà en 2015, la Commission européenne faisait part de sa volonté de proposer de nouvelles règles de responsabilité pour les intermédiaires techniques, en particulier les hébergeurs, afin qu’ils soient incités à faire la police eux-mêmes sur leurs serveurs. Le sujet est par la suite resté un sujet de discussion, Bruxelles le relançant en début d’année.

code source programme progammation
Les algorithmes à la rescousse de la lutte contre les contenus illicites.

Plusieurs autres suggestions sont faites : coopération plus étroite avec les forces de l’ordre, désignation de référents dédiés à la suppression de contenus illicites, coopération avec des entités expertes identifiées comme signaleurs de confiance, investissement dans les outils de détection automatique et développement de mécanismes simples d’accès pour les internautes croisant ce type de contenus.

Outre l’accélération de la détection et l’amélioration des signalements aux hébergeurs, la Commission plaide pour une suppression plus efficace :

Elle invite les géants du net à réfléchir à la réduction des délais entre la réception d’une notification et l’intervention des plateformes (la suppression pourrait soumise à des délais précis quand les risques de dommages sont graves), la publication de rapports de transparence, une meilleure explication au public des politiques de retrait des contenus et la mise en place de dispositifs pour éviter « le risque de suppression excessive ».

Soucis à l’horizon

Ce dernier point n’est pas du tout anodin, pour ne pas dire capital du point de vue de la liberté d’expression : en se sachant sous la menace d’une modification législative qui viendrait modifier l’équilibre juridique de leur responsabilité devant les tribunaux, les plateformes pourraient être tentées, pour éviter de donner des munitions à leurs détracteurs, de faire du zèle et d’effacer des contenus à tour de bras.

À ce point s’ajoutent les problèmes habituels d’une automatisation par algorithme : la détection automatique risque de prendre dans ses filets un certain nombre de faux positifs — l’expérience l’a assez largement montré dans le cas de Content ID, le système mis en place par Google sur YouTube pour repérer les œuvres sous droit d’auteur. Idem pour les filtres devant empêcher le retour de contenus déjà effacés.

Data Center

Rappelons qu’à l’heure actuelle, c’est un régime de responsabilité dérogatoire qui fait que les hébergeurs ne sont pas pénalement ou civilement responsables de ce qu’ils hébergent, sauf à ne pas retirer rapidement les contenus manifestement illicites lorsque ceux-ci leur ont été signalés.

Modifier cet équilibre vers un devoir de surveillance active de la présence de certains types de contenus, donc avancer vers un filtrage pro-actif, n’est normalement pas envisageable sur le plan juridique, dans la mesure où la Cour de justice de l’Union européenne a jugé que ce genre de mesure est illicite au regard des textes actuels. Mais le fait est que les textes peuvent être réécrits. C’est en tout cas ce que suggère Bruxelles.

Partager sur les réseaux sociaux