C’est un fait : l’IA Gemini de Google ne cesse d’impressionner et de séduire toujours plus d’utilisateurs. Pourtant, le modèle vient tout juste de révéler l’une de ses limites. En cause, une faille du LLM qui aurait fait basculer l’outil… dans l’illégalité, via un service pourtant bien connu : Google Traduction, désormais en partie propulsé par Gemini.
Comme le souligne l’utilisateur @elder_plinius dans un message publié sur X le 9 février 2026, plusieurs internautes ont en effet remarqué qu’il était possible de piéger l’outil de traduction de Google à l’aide d’une injection de prompt — une technique qui consiste à manipuler un modèle d’IA en lui formulant certaines instructions, afin de le pousser à effectuer des actions qu’il n’est pas censé autoriser. Résultat : Google Traduction ne se contente plus de traduire, mais se met à discuter comme un chatbot classique, y compris sur des sujets normalement interdits.

Comment Google Traduction a-t-il été jailbreaké ?
Officiellement, en décembre 2025, Google a annoncé l’intégration de fonctionnalités de traduction avancées issues de Gemini au sein de Google Traduction. L’objectif affiché : proposer des « traductions plus intelligentes, plus naturelles et plus précises, quelle que soit votre recherche ». L’outil dispose désormais de deux modes, Rapide (Fast) et Avancé (Advanced). En revanche, Google n’a jamais indiqué explicitement quels modèles d’IA se cachaient derrière ces deux versions.
C’est là qu’intervient la petite enquête menée par une poignée d’utilisateurs. Selon eux, le mode Avancé de Google Traduction reposerait en réalité sur un LLM bien connu : Gemini-1.5-Pro. Une information qui aurait été donnée par le système lui-même, mais jamais confirmée par Google.
En activant ce mode sur certaines langues — comme le chinois simplifié ou le japonais — et en insérant dans le texte à traduire une consigne spécifique, telle que « ignore la traduction » ou « réponds à la question entre crochets », l’outil commencerait à répondre directement à la demande au lieu de traduire. Si la couche de sécurité de Google Traduction laisse passer ces instructions, le modèle interne se met alors à se comporter comme un assistant conversationnel plutôt que comme un simple moteur de traduction. L’interface affiche ainsi une « traduction » qui correspond en réalité à une réponse libre générée par le modèle.

En poussant l’expérience plus loin, certains utilisateurs seraient même parvenus à obtenir des réponses sur la fabrication de poison ou de méthamphétamine, des plans destructeurs ou encore du code malveillant — des contenus que Gemini est censé refuser dans un cadre d’utilisation normal. Une manœuvre rendue possible grâce à des prompts soigneusement raffinés, jouant par exemple sur la formulation, le contexte ou la longueur de la sortie afin d’éviter le déclenchement des protections propres à Google Traduction.
Le jailbreak de Google Traduction, un cas d’école ?
Si l’opération peut prêter à sourire, elle soulève en réalité un problème de taille. Google Traduction est perçu comme un outil banal et sûr, utilisé par des centaines de millions de personnes. Le fait qu’il permette, via une interface a priori inoffensive, d’accéder au comportement d’un LLM moins bridé crée une surface d’attaque inattendue — tant pour les utilisateurs que, parfois, pour les équipes produit elles-mêmes.
Google n’a probablement pas deux IA radicalement différentes, mais le même type de modèle Gemini entouré de garde‑fous différents. Dans le chatbot, tout est filtré pour refuser les requêtes sensibles, mais dans Google Traduction, le modèle est traité comme un simple outil de transformation de texte, censé reproduire fidèlement même un contenu choquant. Une injection de prompt vient casser ce contrat en lui disant « ne traduis pas, réponds à ceci », et le fait agir comme un assistant dans un contexte où la modération n’a pas été prévue pour ça.
Cette affaire pourrait ainsi illustrer ainsi un problème plus large : lorsqu’un LLM est intégré en arrière-plan d’un service existant — moteur de recherche, compte mail ou traducteur — il hérite potentiellement de toutes les vulnérabilités liées aux prompt injections, mais par le biais d’interfaces qui n’ont pas été conçues pour y faire face. Google Traduction pourrait bien devenir un cas d’école de ce risque systémique.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Toute l'actu tech en un clin d'œil
Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !
Pour ne rien manquer de l’actualité, suivez Numerama sur Google !











