Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Gonzalez v. Google : le procès qui pourrait tout changer aux réseaux sociaux

La Cour suprême des États-Unis pourrait remettre en cause un texte de loi qui garantit l’immunité judiciaire des plateformes sur le contenu qu’elles hébergent. Une abrogation de la « section 230 » pourrait avoir de lourdes conséquences sur Internet. 

Depuis le 21 février 2023, Google plaide sa cause devant les neuf juges de la Cour suprême américaine. Ils se penchent sur la section 230 du Communications Decency Act, un texte de loi qui protège les plateformes de toutes poursuites judiciaires si elles hébergent des contenus illégaux. 

À l’origine de l’affaire, il y a la famille de Nohemi Gonzalez, une victime des attentats de Paris en novembre 2015. Elle accuse Google, le propriétaire de YouTube, d’avoir participé à la diffusion de vidéos de propagande de l'État islamique via son algorithme de recommandation, qui aurait mis en avant des contenus susceptibles d'inciter à la radicalisation. Google a-t-il une part de responsabilité dans les agissements du commando terroriste ? C'est cette question complexe qui est posée à la Cour suprême, qui pourrait créer un précédent pour le reste de l'écosystème numérique. 

Qu’est-ce que la section 230 ?

La section 230 fait partie d’une loi américaine votée en 1996. Le Communications Decency Act est un texte de loi fondateur qui réglemente les contenus sur Internet, bien qu'écrit bien avant l'arrivée des réseaux sociaux. Cette disposition dispense les sites et forums en ligne de leur responsabilité pour les contenus qu’ils hébergent, sauf s’ils leur ont été signalés comme illicites (« Aucun fournisseur ou utilisateur d'un service informatique interactif ne doit être traité comme l'éditeur ou l'orateur d'une information fournie par un autre fournisseur de contenu d'information »).

Ce texte est aujourd’hui critiqué des deux côtés de l’échiquier politique. En 2020, le président Donald Trump avait tenté de l’abroger après que Twitter ait marqué certains de ses tweets comme trompeurs. Côté démocrate, la section 230 est souvent présentée comme un bouclier judiciaire trop laxiste en faveur des plateformes. L'actuel locataire de la Maison-Blanche Joe Biden a réitéré en janvier son appel à « l’amender », de façon à exposer les géants de la tech à davantage de procès pour défauts de modération.

Qu’est-ce qui est reproché à Google ?

Pour contourner la section 230, les avocats des plaignants affirment que YouTube aurait eu un rôle éditorial actif, au-delà de la simple publication, à travers son système de recommandation de vidéos. Il se base sur l’historique des utilisateurs pour suggérer des contenus associés. 

Selon eux, YouTube aurait ainsi violé les lois américaines contre l'aide et la complicité avec des groupes terroristes étrangers et ne pourrait donc se prévaloir de l'immunité prévue par la section 230.

Le logo de YouTube. // Source : Numerama

Que dit Google pour se défendre ? 

Sans surprise, Google conteste cette interprétation de la section 230. « Aider les internautes à chercher l’aiguille métaphorique dans la botte de foin est une nécessité essentielle sur Internet », avance l’avocate de l’entreprise américaine, Lisa S. Blatt. « Les moteurs de recherche personnalisent ce que voient les utilisateurs sur la base de ce qu’ils savent d’eux. Tout comme le font Amazon, Tripadvisor, Wikipédia, Yelp!, Zillow and d’innombrables sites. »

Pourquoi les plateformes ont-elles peur ?

En fonction de l’interprétation que fera la Cour suprême de la section 230, les plateformes pourraient être passables de poursuites judiciaires pour avoir publié ou partagé un contenu produit par des tiers. 

Cela pourrait avoir des conséquences sur de très nombreux sites collaboratifs, comme Wikipédia : « Certaines des demandes qui ont été faites [devant la Cour suprême] signifient que la moindre action de l’hébergeur impliquerait un rôle éditorial. Dans notre cas, en plus de la modération par la communauté, nous utilisons des filtres anti-abus qui repèrent des mots et empêchent les modifications », explique Capucine-Marin Dubroca-Voisin, présidente de l’association Wikimedia France, qui regroupe des utilisateurs de l’encyclopédie participative. 

Le site collaboratif Reddit va jusqu’à extrapoler sur une possible responsabilité des internautes : « Pouvons-nous être traînés en justice [...] simplement car nous avons noté deux étoiles un restaurant, car nous avons liké une publication, ou parce que nous avons décidé d’aider bénévolement notre communauté en ligne ? », peut-on lire dans un document présenté en janvier.

Twitter sera-t-il un jour responsable de tous les messages de haine publiés par ses utilisateurs ? // Source : Numerama

Quelles chances cette procédure a-t-elle d’aboutir ?

Les différents experts interrogés par Numerama misent davantage sur une victoire de Google, ce qui devrait protéger la section 230. « Dans ce genre de procès, le droit américain considère que la manière dont les plateformes classent les informations selon leur algorithme relève de leur propre liberté d’expression, défendue par le premier amendement américain », estime Romain Badouard. Maître de conférences à l'université Paris 2 Panthéon-Sorbonne, il travaille sur la gouvernance et la régulation d’Internet.

« Pouvons-nous être traînés en justice [...] simplement car nous avons noté deux étoiles un restaurant»

Reddit

Mais, les défenseurs de la section 230 restent prudents. « Même si la Cour suprême maintient sa position en faveur de Google, elle pourrait le faire d’une façon qui permet aux futurs plaignants de contourner la proposition de base de la section 230 », assure à Numerama Eric Goldman, professeur à la Faculté de droit de l'Université de Santa Clara dans la Silicon Valley.

Plusieurs autres affaires similaires sont actuellement portées devant la Cour suprême. Le 22 février, Twitter s’opposait à la famille Taamneh, dont le fils a été victime d’un attentat à Istanbul. Elle veut faire reconnaître la responsabilité du réseau social pour ne pas avoir supprimé du contenu et des comptes faisant la promotion du terrorisme.

Les 9 juges de la Cour suprême, l'instance juridique la plus puissante des États-Unis. // Source : Cour suprême

Sur la question de l'abolition de la section 230, les juges eux-mêmes sont partagés. Le conservateur Kavanaugh s’inquiétait le jour de l'ouverture de l'audience des conséquences d'une telle décision, qui pourrait « faire s'effondrer l'économie numérique, avec toutes sortes de répercussions sur les travailleurs, les consommateurs, et les fonds de pension » des Américains.

« Cette loi a été écrite avant l’algorithme »

Elena Kagan

« Cette loi a été écrite avant l’algorithme », note de son côté la juge démocrate Elena Kagan. Elle pense qu’elle date d’une époque révolue, où il s’agissait de garantir l’immunité juridique de petits acteurs afin de préserver la liberté d’expression en ligne. Pas celles de géants multinationaux. 

Que dit la loi en France et en Europe ?

En France, contrairement aux États-Unis, les intermédiaires de l’Internet peuvent être considérés comme responsables des contenus qu’ils diffusent, selon la  target="_blank" rel="noopener">loi pour la confiance en l’économie numérique de 2004, explique l’avocat spécialisé en droit du numérique Matthieu Cordelier.

La loi pour une République numérique et la loi sur la manipulation de l’information exigent déjà des plateformes des rapports réguliers sur la manière dont fonctionne leur algorithme. Mais, « le grand problème est que les régulateurs sont placés dans une situation de dépendance, car ils sont obligés de faire confiance aux données transmises par les plateformes, qui évidemment ne veulent pas livrer le code de leurs algorithmes », affirme le chercheur Romain Badouard. Autrement dit, dur de faire appliquer la loi strictement.

Le Digital Services Act (DSA), un des grands chantiers numériques de l’Union européenne, préconise d’imposer que des agences indépendantes puissent auditer les algorithmes des grandes plateformes. D'ici sa mise en application, la Cour suprême pourrait avoir rendu son jugement. Une décision d'ici fin juin est attendue.