OpenAI annonce avoir identifié et fermé les comptes ChatGPT de plusieurs groupes liés à des puissances étrangères. L’outil d’IA générative servait à orchestrer des opérations d’influence et de désinformation sur les réseaux sociaux.

Leur objectif est clair : polariser les débats publics, diffuser des contenus politiques biaisés et collecter des informations sensibles. Dans un rapport publié début juin, OpenAI détaille dix campagnes de désinformation, toutes dopées à ChatGPT, menées au cours des trois derniers mois.

Les acteurs étatiques à l’origine de ces campagnes sont directement pointés du doigt. On retrouve en tête d’affiche la Chine, mais également la Russie, l’Iran ou la Corée du Nord. Tous ont exploité ChatGPT pour générer automatiquement des publications, commentaires et faux profils sur TikTok, X (ex-Twitter), Reddit, Facebook et d’autres plateformes.

Publication et faux débat entièrement générés par IA via la campagne "Sneer Review" // Source : OpenAi
Débat entièrement généré par IA via la campagne de désinformation « Sneer Review » // Source : OpenAi

« Uncle Spam » , « Speer Review », les campagnes de la discorde

Reprendre l’actualité politique et réagir sans nuances, voilà dans les grandes lignes le mode opératoire.

Côté chinois, le rapport identifie quatre campagnes distinctes particulièrement structurées. L’opération la plus aboutie, surnommée « Sneer Review », consistait à publier des messages contradictoires en anglais, chinois et ourdou sur des sujets sensibles comme la fermeture de l’USAID, la politique taïwanaise ou les tarifs douaniers américains. Tantôt critiques à l’égard d’une décision politique, les opérateurs en louaient les bénéfices quelques publications plus tard, générant eux-mêmes des réponses à leurs messages pour donner l’illusion d’un débat authentique. Une méthode simple mais efficace qui a permis, selon OpenAI, de générer des interactions organiques sur plusieurs plateformes.

Autre exemple, jouant cette fois sur la fibre patriotique américaine : l’opération « Uncle Spam ». Ici, les groupes chinois ont utilisé ChatGPT pour créer de faux comptes de vétérans, avec logos et avatars générés par IA. Les anciens combattants fictifs donnaient leurs avis (encore une fois contradictoires), sur des sujets politiques sensibles dans le pays.

Compte BlueSky créé dans le cadre de l'opération de désinformation chinoise "Uncle Spam" // Source : OpenAI
Compte BlueSky créé dans le cadre de l’opération de désinformation chinoise « Uncle Spam »

Preuve d’une organisation professionnelle et planifiée, le rapport indique par ailleurs que ChatGPT a été utilisé par ces groupes pour rédiger des rapports internes, détailler les méthodes et automatiser les campagnes au quotidien.

De faux sites d’actualités venus de Téhéran et Moscou

Dans les tentatives de déstabilisation par IA générative, la Russie et l’Iran ne sont pas en reste. Moscou aurait notamment mené l’opération « Helgoland Bite », une campagne d’influence centrée sur les élections fédérales allemandes de 2025. Les acteurs derrière ce réseau utilisaient ChatGPT pour générer des contenus en allemand à charge contre l’OTAN, et promouvant le parti d’extrême droite Alternative für Deutschland (AfD). En usurpant l’identité de médias et d’agences gouvernementales, la campagne relayait de fausses alertes sur des menaces terroristes ou des scandales visant des candidats allemands. L’opération s’appuyait sur un vaste réseau de bots pour amplifier la portée des contenus.

Aussi, OpenAI annonce avoir démantelé une opération baptisée « Storm-2035 », menée par des groupes affiliés à Téhéran. Ils utilisaient ChatGPT pour générer des contenus de propagande sur une variété de sujets  sensibles : élections présidentielles américaines, guerre à Gaza, présence d’Israël aux Jeux olympiques.

Une menace détectée mais encore limitée

Malgré la sophistication de ces campagnes, OpenAI souligne que leur portée est restée relativement faible. « Nous n’avons pas observé que ces opérations obtenaient plus d’engagement grâce à l’IA. La plupart du temps, les seuls à interagir avec le contenu sont les opérateurs eux-mêmes. », résume Ben Nimmo, responsable des enquêtes chez OpenAI.

Le rapport met cependant en garde contre la rapidité avec laquelle ces tactiques évoluent et la facilité croissante d’accès à des modèles d’IA, qui pourraient rendre la détection et la modération plus complexes à l’avenir.

Au-delà des campagnes de désinformation, le rapport alerte aussi sur des usages connexes de ChatGPT, comme la génération automatisée de faux CV par des groupes nord-coréens pour infiltrer des entreprises occidentales.

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+
Toute l'actu tech en un clien d'oeil

Toute l'actu tech en un clin d'œil

Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !


Marre des réseaux sociaux ? Rejoignez la communauté Numerama sur WhatsApp !