Une enquête du site The Daily Beast a découvert un réseau de faux journalistes, dont les éditos sont publiés depuis parfois un an dans des journaux conservateurs anglais. À l'aide de photos générées par intelligence artificielle et de faux CV sur LinkedIn, ils ont même réussi à tromper une sénatrice française.

Depuis le début de l’année, d’étranges journalistes ou experts en géopolitiques sont apparus. Publiés dans de nombreux journaux anglophones, ils font, à travers des éditos et autres articles d’opinion, l’éloge des Émirats arabes unis, dénoncent la politique du Qatar, se montrent sceptiques envers la politique de Facebook. Pourtant, ils n’existent pas.

Dans une enquête publiée de 7 juillet 2020, le site américain The Daily Beast raconte comment un groupe «  d’au moins 19 personnes » a pu tromper journaux et politiques pendant près d’un an, avec une conclusion glaciale : en plus de se méfier des fake news, il faut désormais se méfier des « fake journalists ».

Le tout premier article remonte à juillet 2019, rapporte The Daily Beast. Écrit par une personne se présentant comme Lin Nguyen, analyste spécialisée dans les questions de sécurité en Asie du Sud-Est, traite de la « guerre économique » entre la Chine et les États-Unis. « Les citoyens chinois, et du monde entier, se rendent petit à petit compte de l’influence rampante de la Chine  », explique l’article, très critique envers les récentes tentatives diplomatiques de Xi Jinping et de ses velléités territoriales.  La « propension chinoise à avoir recours à l’espionnage industriel », le «  vorace dragon chinois », un « futur “printemps asiatique” contre l’ingérence et la domination chinoise »…

« Un vaste réseau d’influence »

Lin Ngyuen n’est pas la seule fausse journaliste que The Daily Beast a pu retrouver. « 19 personnages, qui ont passé l’année dernière à écrire et publier plus de 90 articles dans 46 journaux différents », explique Adam Rawnsley, le journaliste à l’origine de la découverte. C’est même un « vaste réseau d’influence, qui exploite les identités de vraies personnes, trompe des journaux internationaux, et fait en sorte de légitimer sa propagande à travers ses publications reconnues », s’alarme Marc Owen Jones, un professeur adjoint à l’Université Hamad Bin Khalifa du Qatar, interviewé par The Daily Beast. C’est également lui qui a, en premier, émis des doutes quant à la provenance des articles écrits par ces faux comptes.

The Daily Beast a réussi à identifier les membres du réseau en analysant leurs comportements. Les comptes étaient, pour la majorité, des contributeurs sur deux sites, construits de toutes pièces : The Arab Eye et Persia Now. Ils sont tous les deux inaccessibles depuis la parution de l’enquête. Les fausses-personnes étaient inscrites sur les réseaux sociaux depuis mars ou avril 2020, se présentaient en tant qu’experts ou que journalistes indépendants, mentaient sur leurs expériences et leurs formations sur leurs comptes LinkedIn, et surtout, utilisaient des photos trouvées sur Internet.

Des visages générés par IA

Par exemple, un personnage se présentant comme Raphael Badani utilisait la photo d’un véritable humain, Barry Dadon, récupérée sur son blog et modifiée afin de ne pas pouvoir être retrouvée avec une recherche inversée. Lin Nguyen utilisait la photo d’une analyste singapourienne, tandis qu’un autre compte se servait d’une photo disponible sur une banque d’images gratuites. Mais dans certains cas, les photos de profils montraient des personnes n’existant pas, créées par intelligence artificielle.

C’est le cas pour la photo de Joseph Labba, qui a écrit pour The Post Millenial. Adam Rawsley, aidé par des chercheurs, a réussi à déterminer que les images n’étaient pas authentiques grâce à des bugs récurrents sur ce genre d’image.

« Les visages générés par intelligence artificielle sont très convaincants, mais on retrouve des bugs au niveau des oreilles et des dents, comme ici  ». «  Les dents sont également un élément important : ici, l’algorithme a eu un problème […] et il semble avoir trois incisives ». Les erreurs comme celles-ci sont cependant difficilement repérables au premier coup d’œil, d’autant plus si on ne prête pas beaucoup attention à la photo. Elles ont réussi à piéger de nombreuses rédactions.

De faux articles dans de vrais journaux

Le Qatar et sa chaîne d’information Al-Jazeera sont des cibles privilégiées du réseau de faux journalistes. On retrouve ainsi les éditos de Joyce Toledano, Raphael Badani ou encore de Lin Nguyen (que des fausses identités) dans des publications conservatrices anglophones et peu regardantes sur les faits, telles The Washington Examiner, Newsmax, ou Politcalite (ils ont depuis supprimé les articles en question). Mais ces articles et leurs faux auteurs ont également réussi à berner les rédactions de journaux généralistes, et connu pour leur fiabilité.

Asia Times, ou encore le South China Morning Post sont ainsi tombés dans le panneau. Lin Nguyen a écrit pas moins de 12 articles pour Asia Times, 5 sur le South China Morning Post. Les articles en question comportent désormais la mention « retiré », même s’ils sont toujours accessibles, et sa page auteur précise que le journal a été « incapable de vérifier l’identité de l’auteur  ». Aucune mention de ce genre n’est faite sur le site de Asia Times.

La page auteur du South China Morning Post de Lin Nguyen // Source : South China Morning Post

« Ces éditos sont extrêmement bien écrits », estime Tom Grundy, le rédacteur en chef de l’ONG Hong Kong Free Press. Lin Ngyuen et Cindy Xi, un autre faux compte, lui ont envoyé à plusieurs reprises des mails lui demandant, « avec insistance », à être publié. «  Nous avons vérifié leur parcours, et nous avons senti que quelque chose n’allait pas. Nous avons rejeté leurs papiers  », explique-t-il sur Twitter, soulagé d’avoir « échappé au pire ».

« Lin disait être une “consultante indépendante et spécialiste des questions de politiques et d’économie en Asie ». Xi se présentait comme une « chercheuse et analyste en politique asiatique, travaillant pour des entreprises privées » », précise Tom Grundy.

Le fait que les articles et éditos soient convaincants — aucune faute d’orthographe, des propos se basant sur des faits d’actualités —, et que leurs auteurs apparaissent dans des publications sérieuses pose un vrai problème. Surtout que de nombreuses personnes influentes ont relayé les articles en question. Ryan Fournier, le cofondateur de l’association Students for Trump et suivi par près d’un million de personnes sur Twitter, a partagé en décembre 2019 un article de Joyce Toledano, sobrement intitulé « Le Qatar déstabilise le Moyen-Orient  ». Près de 500 personnes ont retweeté sa publication, et plus de 600 l’ont aimée. L’article n’a pas été retiré, même si on peut désormais voir en haut de la page une mention précisant que, s’ils sont au courant de l’article du Daily Beast, ils  « considèrent que l’article ne commet pas d’erreurs, et que la rédaction est toujours d’accord avec son propos » et qu’ils avait décidé de «  laisser l’article en ligne ».

Un article écrit par un faux journaliste est toujours visible sur le site de Human Event // Source : Human Events

La sénatrice française de l’Orne, Nathalie Goulet, a également partagé sur Twitter un article frauduleux de Asia Times. Écrit, encore une fois, par Lin Ngyuen, il s’intitule « Pourquoi cette nomination au conseil de surveillance de Facebook est dangereuse », et explique que l’arrivée de la Yéménite Tawakkol Karman représenterait un « obstacle à la lutte contre la haine  ». Il reproche notamment à la Prix Nobel de la paix sa proximité supposée avec le groupe des Frères Mulsumans, et rappelle que « l’association yéménite pour les droits de l’homme et l’immigration a qualifié Tawakkol Karman de ‘belliciste, et pas de pacifiste’ ».

Prévenue par The Daily Beast lors de la publication de son article, la sénatrice n’a pas retiré son tweet, se contentant de dire qu’elle « ferait attention ».

Pour l’instant, Numerama n’a pas trouvé de faux journalistes publiés dans des médias francophones. Si vous avez la moindre information ou le moindre doute, écrivez nous à aurore.gayte@humanoid.fr ou à tips@numerama.com.

Partager sur les réseaux sociaux