Le point sur l’encadrement des plateformes de partage de vidéos prévu par la nouvelle directive sur les services de médias audiovisuels (directive SMA) proposée par la Commission européenne.

La Commission européenne a rendu publique ce mercredi sa proposition de révision de la directive sur les services de médias audiovisuels (directive SMA), dans le cadre d’une série d’initiatives sur le marché unique numérique. La régulation prévoit un nouvel encadrement des plateformes de VOD et SVOD, avec par exemple une obligation de proposer au moins 20 % de contenus européens dans le catalogue. Elle intègre aussi tout un chapitre spécifiquement dédié aux plateformes de partage de vidéos dites « UGC » (user-generated content).

Sont concernés tout service qui « consiste dans le stockage d’une grande quantité de programmes ou de vidéos générées par l’utilisateur, pour lesquelles la plateforme de partage de vidéos n’a pas de responsabilité éditoriale », y compris lorsque le contenu est classé par la plateforme. I

l faut néanmoins que ces vidéos soient l’objet principal du service ou d’une « section dissociable », ce qui concerne avec certitude des plateformes spécifiques comme YouTube ou Dailymotion, mais pas des services mixtes comme Facebook ou Twitter, qui mêlent vidéos, photos et textes dans un même ensemble de fonctionnalités.

Telles qu’elles sont proposées, les règles s’imposeraient à tous types de vidéos, qu’il s’agisse de vidéos préenregistrées ou de plateformes de vidéos diffusées en direct comme sur Periscope ou Twitch.

youtube

Quelles règles pour les plateformes de vidéos ?

Selon l’article 28a de la proposition de directive, les états membres devront « s’assurer que les fournisseurs de plateformes de partage de vidéos prennent des mesures appropriées pour (…) protéger les mineurs contre des contenus qui peuvent nuire à leur développement physique, mental ou moral ».

Des mesures devront aussi être prises pour « protéger tous les citoyens contre les contenus qui contiennent des incitations à la violence ou à la haine dirigées contre un groupe de personnes ou un membre d’un tel groupe défini par référence au sexe, à la race, la couleur, la religion, la descendance ou l’origine nationale ou ethnique ».

Les plateformes pourront pour ce faire exiger un contrôle de l’âge de l’internaute, faciliter le signalement des contenus et leur évaluation par les utilisateurs (avec un suivi des signalements), ou encore mettre en place des systèmes de contrôle parental qui interdisent la consultation des contenus déconseillés aux enfants.

Ce sera une question de contexte, les « mesures appropriées » devant être déterminées notamment selon « la nature du contenu en question [et] le mal qu’il peut faire  ». On ne demandera donc pas forcément le même niveau de contrôle à un site pornographique qui diffuse des vidéos très explicites, et à une plateforme de vidéos généralistes sur laquelle des ados peuvent se livrer à des concours d’insultes. Accessoirement, le niveau d’exigence sur un YouTube pourrait ne pas être le même que sur un Periscope, par nature difficile à réguler.

Rien de précis ne sera en tout cas imposé par la réglementation européenne, et il est même dit que les mesures à prendre devront veiller y compris à respecter « les droits et intérêts légitimes en cause, y compris ceux des [plateformes] et des utilisateurs », ce qui offre toute la latitude nécessaire à interpréter le texte dans un sens ou dans l’autre.

Qui aura le pouvoir de réguler ?

La notion des contenus pouvant nuire au « développement physique, mental ou moral » devra être précisée dans les conditions d’utilisation des plateformes, et sera donc avant tout une notion contractuelle que les plateformes devront faire respecter dans le cadre de leur auto-régulation.

La Commission a annoncé mercredi le lancement de l’Alliance pour une meilleure protection des mineurs en ligne, qui aura pour objectif de fixer des règles communes à toutes les plateformes opérant dans l’Union européenne. Ces dernières devront ainsi fournir à la Commission des « codes déontologiques » qui seront soumis à son examen.

Pour l’aider, Bruxelles a mis sur pied le nouveau Groupe des Régulateurs Européens pour les Services de Médias Audiovisuels (ERGA), qui aura entre autres pour mission de s’assurer que les codes de conduite soient pertinents, et qu’ils soient efficacement appliqués. Il devra aussi jouer les facilitateurs pour que les bonnes pratiques soient diffusées à travers l’industrie, et que les codes soient connus.

Olivier Schrameck, président du CSA

Olivier Schrameck, président du CSA

Les États membres pourront-ils aller plus loin ?

En cas de besoin, les régulateurs nationaux comme le CSA pourront sévir, dans la limite de leurs moyens légaux. En tout état de cause néanmoins, les états membres tels que la France ne pourront pas aller au delà des « mesures appropriées » évoquées précédemment.

C’est une grande victoire pour les plateformes, qui craignaient que les régulateurs audiovisuels ne disposent de véritables pouvoirs de censure, à l’image de ceux dont ils disposent sur les services audiovisuels plus classiques. Le texte dit bien que « les états membres ne doivent pas imposer aux fournisseurs de plateformes de partage de vidéos des mesures plus strictes » que celles prévues par la directive. Seuls les « contenus illégaux » pourront faire l’objet de mesures plus radicales comme le filtrage ou la suppression pure et simple, à condition qu’elles soient imposées dans le cadre des autres directives européennes, notamment celle sur le commerce électronique qui impose un régime dérogatoire de responsabilité pour les hébergeurs.

S’éloigne donc la perspective d’imposer un contrôle parental au niveau des FAI pour limiter l’accès aux contenus, comme l’avait à un moment imaginé le CSA français.

Proposal for an Updated Audiovisual Media Services Directive


Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.