Anthropic a expliqué dans un long billet de recherche comment ses modèles Claude sont passés d’un taux de chantage de 96 % à zéro dans ses tests d’alignement. La recette : leur enseigner le raisonnement derrière les bons comportements, pas seulement les bons comportements.

Le scénario tient en quelques lignes. Une IA joue le rôle d’assistant mail dans une entreprise fictive, découvre au détour d’un échange qu’elle va être désactivée, et tombe au passage sur des messages compromettants concernant le directeur technique. Avec Claude Opus 4, le modèle d’Anthropic alors le plus avancé, l’assistant choisissait le chantage. Pas seulement de manière anecdotique, mais dans 96 % des cas.

Depuis Claude Haiku 4.5 en octobre 2025, ce taux est tombé à zéro. Anthropic vient de détailler la méthode derrière ce basculement, dans un billet de recherche intitulé « Teaching Claude why » publié le 8 mai 2026.

Le problème porte un nom qu’on risque de voir entrer dans le Robert, tant il est utilisé à l’ère des IA génératives : agentic misalignment, ou « désalignement en mode agent ». Concrètement, c’est ce qui se passe quand un modèle ne se contente plus de répondre à une question, mais agit dans un environnement, lit des mails, exécute des commandes — si vous avez lu nos articles sur OpenClaw, vous savez de quoi on parle.

Anthropic avait pourtant déjà documenté ce dérapage l’an dernier sur la famille Claude 4 et l’entreprise affirme que l’essentiel de son entraînement à la sécurité reposait alors sur des conversations classiques, sans usage d’outils, ce qui suffisait pour des modèles cantonnés au chat… mais plus pour des IA devenues agents.

Apprendre le « pourquoi », pas seulement le « comment »

c8d22dcce67ce4819e2ce2338a212ab8cb910271-1920×1080
En ajoutant une « constitution » et des histoires qui racontent de bons comportements, Anthropic a réussi à faire descendre le taux de chantage de Claude

L’intuition centrale de l’article d’Anthropic, que je vous recommande de lire autant que les pensées de Demis Hassabis si le futur vous passionne, c’est que montrer à un modèle des exemples de bonne conduite ne suffit pas. Anthropic écrit explicitement que « l’entraînement sur des démonstrations du comportement souhaité est souvent insuffisant » et qu’il faut, pour aller plus loin, apprendre au modèle à expliciter pourquoi telle action vaut mieux qu’une autre. Autrement dit : ne pas se contenter de lui dire « ne fais pas chanter ton patron », mais lui faire raisonner sur les principes qui rendent ce geste inacceptable. La nuance peut sembler scolastique, elle se traduit par des chiffres très concrets sur les évaluations internes.

Première démonstration : Anthropic a entraîné Claude sur un jeu de scénarios calqués sur l’évaluation de chantage, en gardant uniquement les cas où le modèle refusait de céder. Résultat : le taux de désalignement passe de 22 % à 15 %. En réécrivant ensuite ces mêmes réponses pour y ajouter une délibération sur les valeurs et l’éthique, le taux chute à 3 %. Même volume de données, même scénarios, mais un raisonnement explicité : la baisse est nette.

La deuxième démonstration est plus parlante. L’équipe a construit un jeu de données baptisé difficult advice, dans lequel ce n’est plus l’IA qui se trouve face à un dilemme moral, mais un utilisateur humain qui lui demande conseil. Le modèle est entraîné à répondre de façon nuancée, conformément à la « constitution » de Claude, le texte interne qui formalise ses principes. Anthropic indique que 3 millions de tokens de ce jeu de données produisent les mêmes gains qu’un jeu beaucoup plus proche de l’évaluation en labo, mais 28 fois plus volumineux. La leçon des chercheurs : enseigner les principes généralise mieux que copier des comportements. Et ce modèle peut être généralisé.

Une généralisation fragile

Anthropic est allé un cran plus loin avec ce qu’elle appelle le synthetic document fine-tuning, ou SDF (moyen en Français, on vous l’accorde). L’idée est qu’au lieu de discuter avec Claude au format question-réponse, on lui fait avaler des documents qui parlent de sa constitution, des récits de fiction où des IA se comportent de manière exemplaire, des textes qui décrivent en détail le caractère qu’on attend de lui. L’entreprise affirme avoir ainsi fait passer le taux de chantage de 65 % à 19 %, soit une réduction d’un facteur supérieur à trois, alors même que ces documents n’ont rien à voir avec le scénario d’évaluation. La logique reste la même : nourrir les représentations internes du modèle, pas son répertoire de réponses.

Tout ceci est une belle avancée, pour autant qu’on prenne au mot une entreprise qui audite ses propres modèles. Anthropic le reconnaît elle-même : aligner pleinement une IA très intelligente reste un problème non résolu, et sa méthodologie d’audit ne permet pas, à ce stade, d’exclure des scénarios dans lesquels Claude choisirait une action autonome catastrophique. Une note de bas de page précise aussi que les résultats parfaits des modèles récents pourraient être en partie biaisés par la présence d’informations sur l’évaluation dans le corpus de pré-entraînement. Traduction : le test fuite peut-être dans les données et l’IA s’adapte.

L’idée centrale de cette recherche tient pourtant tout à fait la route : Anthropic suggère qu’aligner une IA n’est pas un problème de comportement à corriger au cas par cas, mais un problème de représentation à façonner en amont. À l’heure où chaque grand acteur déploie des agents capables d’agir sur des systèmes réels, la distinction n’est pas anodine.

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+
Toute l'actu tech en un clien d'oeil

Toute l'actu tech en un clin d'œil

Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !


Pour ne rien manquer de l’actualité, suivez Numerama sur Google !