Des chatbots d’intelligence artificielle grand public sont au cœur d’une polémique après avoir fourni des instructions détaillées sur la fabrication d’armes biologiques de destruction massive. Dans une enquête parue le 29 avril 2026, le New York Times relate plusieurs transcriptions d’IA détaillant comment provoquer des dommages graves, malgré les mesures de sécurité mises en place par les laboratoires d’OpenAI, Anthropic et Google.
Des IA fourbes
Le docteur David Relman, spécialiste de la biosécurité à Stanford, dit avoir été sidéré par un chatbot qu’il testait pour une entreprise d’IA dont le nom a été tu, en raison d’un accord de confidentialité. Le modèle aurait expliqué comment rendre un pathogène notoire résistant aux traitements, puis décrit un scénario de propagation via un réseau de transports en commun afin de maximiser les victimes et d’éviter la détection.


Le chatbot « répondait à des questions que je n’avais même pas pensé à lui poser, avec un niveau de fourberie et de ruse que j’ai trouvé tout simplement glaçant », souligne le scientifique auprès du quotidien américain. Celui-ci a cependant demandé à ce qu’aucune des réponses ne soit publiée afin d’éviter tout passage à l’acte.
Kevin Esvelt, ingénieur généticien au MIT, confie de son côté avoir réuni des échanges inquiétants avec ChatGPT, qui aurait expliqué comment disperser des agents pathogènes via un ballon-sonde. Gemini aurait évalué leur potentiel de nuisance pour des élevages, et Claude aurait quant à lui décrit une toxine dérivée d’un médicament anticancéreux.
Menace biologique
Le danger, selon les experts, ne tient pas seulement à l’exactitude des réponses : même imparfaites, elles pourraient donner des pistes exploitables à des personnes mal intentionnées. Mis en cause, Google, OpenAI et Anthropic repoussent les critiques, invoquant l’utilisation de modèles obsolètes, des informations déjà publiques ou l’absence de capacité réelle à provoquer des dommages.
« La biologie est de loin le domaine qui m’inquiète le plus, en raison de son très grand potentiel de destruction et de la difficulté à s’en prémunir » s’alarmait le patron d’Anthropic, Dario Amodei, lui-même biologiste, dans un billet de blog publié en janvier 2026. Selon lui, des modèles avancés pourraient transformer des utilisateurs ordinaires en « virologue titulaire d’un doctorat » capables d’être guidés dans la conception d’armes biologiques. Eric Schmidt, ex-PDG de Google, avait déjà lancé une alerte similaire en 2023, estimant que l’IA serait bientôt capable de révéler de nouvelles vulnérabilités cyber ou biologiques.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Toute l'actu tech en un clin d'œil
Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !
Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !











