La Hadopi a fait savoir qu'elle voulait extraire une partie des données circulant sur les réseaux des fournisseurs d'accès à internet pour étudier les "dynamiques de flux" et voir précisément comment les contenus piratés circulent entre les internautes, ou entre les internautes et les hébergeurs. Même si l'opération est déconnectée de la riposte graduée, l'initiative promet de faire polémique.

Le Département Recherche, Etudes et Veille (DREV) de l'Hadopi a publié lundi soir son programme de travail (.pdf) pour la mise en oeuvre de la mission d'observation que lui a confiée le législateur. A cette occasion, le DREV a confirmé qu'elle souhaitait "étudier le trafic d'un réseau de grande taille" pour analyser les flux de données et voir précisément, grâce aux données réelles des internautes, quelles sont leurs pratiques sur Internet.

L'idée est d'être au plus près du réseau pour observer les changements de comportements et s'adapter au plus vite à l'apparition de nouvelles pratiques d'accès illicites aux contenus protégés par le droit d'auteur. Il s'agit d'identifier "les méthodes employées par les utilisateurs et en particulier les plus innovantes". Mais l'étude permettrait aussi d'obtenir des données chiffrées permettant de justifier en justice le blocage de tel ou tel site.
 
"L'analyse statistique des données NetFlow d’un réseau de grande envergure permettrait une meilleure compréhension des usages et des habitudes de consommation des internautes", explique l'Hadopi dans son document, qui ne livre aucun calendrier ni aucune garantie que les données seront parfaitement anonymées. Pourtant NetFlow est un protocole très indiscret mis au point par CISCO, qui permet d'identifier les paquets qui constituent un même "flux", et d'en extraire un grand nombre de données :
  • Adresse IP source
  • Adresse IP de destination
  • Protocole réseau
  • Port source et port de destination
  • Durée du flux
  • Taille en octets
  • Débit en bit par seconde
  • Champs Tos (DSCP)
  • etc.

"Le DREV se propose de travailler à une méthode d’analyse des données NetFlow permettant de qualifier les usages des internautes utilisant le réseau d’où sont issues les données NetFlow. (exemple : mailing, téléchargement, etc.)", et "de quantifier les usages des internautes utilisant le réseau d’où sont issues les données NetFlow. (quel volume de données par exemple)", explique le document. L'Hadopi veut pouvoir analyser les flux réseaux en temps réel, grâce à des méthodes de reconnaissance heuristique des usages qui l'intéressent.

Mais "cette étude, pour être la plus pertinente possible, devra être menée idéalement sur un nombre important de réseaux", prévient-elle, en expliquant que "la qualité de données NetFlow à extraire serait fixée par un ratio défini lors de l'étude de faisabilité".

Elle n'a pas précisés si des fournisseurs d'accès à internet avaient déjà accepté de donner accès à tout ou partie de leurs données NetFlow. Mais selon nos informations, au moins un FAI aurait déjà entamé des discussions.

visuel_fibre_adsl2

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !