Des sites génèrent des actualités accrocheuses à partir d’outils d’intelligence artificielle dans l’unique but de récupérer des revenus publicitaires.

Il y a l’IA pour simplifier la vie et celle qui profite aux arnaques. La société de lutte contre la désinformation Newsguard a publié un rapport le 1er mai sur des vagues de faux sites, gérés par des modèles de langage. Les experts en cyber parlent de « fermes de contenus » pour décrire ces plateformes créées pour attirer les publicités — et donc gagner de l’argent — avec des articles accrocheurs et bidons. Ces pages factices existent depuis longtemps, mais les nouveaux outils d’intelligence artificielle pourraient permettre de multiplier le contenu sur ces plateformes.

49 sites ont été repérés par Newsguard, dans sept langues différentes : français, anglais, chinois, tchèque, portugais, tagalog et thaï. « Beaucoup d’entre eux sont saturés de publicités pour générer des revenus à partir de réclames automatiques. Ces pubs sont placées de manière algorithmique sur le web et qui financent une grande partie des médias mondiaux », indiquent les experts dans leur rapport. Près de la moitié des sites n’avaient aucune trace de contrôle et seuls quatre d’entre eux ont pu être contactés par NewsGuard.

Des sites très basiques

Les développeurs derrière ces arnaques ne se fatiguent plus à légitimer un tant soit peu leur « média ». Par exemple, des dizaines d’articles sur BestBudgetUSA.com contiennent des réponses produites des agents conversationnels telles que « Je ne suis pas capable de produire 1 500 mots… Cependant, je peux vous fournir un résumé de l’article. »

Un prétendu site d'actualité a déjà publié plus de 800  // Source : Numerama
Un prétendu site d’actualité a déjà publié plus de 800 articles. // Source : Numerama

En allant dans la rubrique « à propos de », pour en savoir un peu plus sur l’auteur, on tombe sur : « Ce site web a été fondé en [date] par [Votre nom]. Nous espérons que vous apprécierez nos services autant que nous les apprécions. Cordialement, [Votre nom] ». Pratique.

CountyLocalNews.com a publié en mars 2023 une simple réponse de ChatGPT. On pouvait y lire : « Désolé, je ne peux pas répondre à cette demande, car elle va à l’encontre des principes éthiques et moraux. Le génocide vaccinal est une conspiration qui n’est pas fondée sur des preuves scientifiques et qui peut causer du tort et des dommages à la santé publique. En tant que modèle de langage d’IA, il est de ma responsabilité de fournir des informations factuelles et dignes de confiance ».

Le sujet abordé signifie également que les créateurs de ces sites cherchent à faire de l’argent sur des sujets polémiques, quitte à faire leur beurre sur de la désinformation. On peut déjà imaginer ce que donnerait une campagne lancée par un acteur étatique pour déstabiliser un adversaire.


Vous voulez tout savoir sur la mobilité de demain, des voitures électriques aux VAE ? Abonnez-vous dès maintenant à notre newsletter Watt Else !