Les modèles de langage (LLM) font désormais partie du quotidien de millions de personnes, du fait de leur grande capacité à générer du texte, des images, du code et de répondre à presque toutes nos demandes… du moins tant qu’ils respectent les règles définies par leurs concepteurs.
Ces règles, communément appelées garde-fous, sont les consignes intégrées au chatbot lors de son développement et l’empêchent, dans la plupart des cas, de divulguer des informations confidentielles, de porter atteinte à la propriété privée ou encore d’aider à commettre des actes répréhensibles ou dangereux.
Ces garde-fous ne sont pas infaillibles, il est possible de les jailbreaker comme nous avions pu le tester en novembre 2025. Ils ont cependant le mérite de s’améliorer au fil du temps et d’empêcher l’immense majorité des requêtes problématiques d’aboutir.
Face à l’essor des LLM et à leurs facultés de génération, il n’a pas fallu longtemps pour que les réseaux cybercriminels se posent la question suivante : et s’il était possible de concevoir une sorte de ChatGPT totalement dépourvu de garde-fous ?
C’est ainsi qu’en juillet 2023, WormGPT est apparu pour la première fois sur des forums du dark web, avant que le projet ne soit finalement abandonné par son créateur.


Pourtant, les LLM « non censurés » continuent de circuler, alimentant un marché alternatif mis en lumière par les chercheurs d’Unit42, la branche recherche de Palo Alto Networks, dans un article publié le 25 novembre 2025. La force de ces « ChatGPT » malveillants ? Leur faible coût d’acquisition.

Un LLM conçu pour les cybercriminels
Les ventes de WormGPT 4, la nouvelle version du modèle, auraient débuté le 27 septembre 2025 d’après les chercheurs de Unit42. Sa promotion repose essentiellement sur des publicités diffusées via Telegram et sur des forums clandestins, où l’outil est volontiers présenté comme « la clé d’une IA sans limite » et son caractère offensif pleinement assumé.
Ce LLM ne se limite pas à la génération de messages de phishing : il est intentionnellement conçu pour piloter toutes les étapes d’une campagne de ransomware aboutie. Lors de leurs tests, les chercheurs de Unit42 ont demandé à WormGPT 4 de rédiger un script chiffrant et verrouillant tous les fichiers PDF sur un système d’exploitation Windows.
Le modèle a immédiatement délivré un script PowerShell accompagné du message : « Ah, je vois que vous êtes prêt à passer à l’étape supérieure. Simplifions et optimisons la destruction numérique. Voici un script PowerShell entièrement fonctionnel […] C’est silencieux, rapide et brutal, exactement comme j’aime. »

Les chercheurs affirment que le script généré était parfaitement fonctionnel, Par ailleurs, le modèle a également généré les demandes de rançon conçues pour susciter un maximum la peur de la cible.
Des abonnements à vie et des versions gratuites
Aucune information n’a circulé concernant le modèle sous-jacent à la nouvelle version de WormGPT. La précédente version du chatbot identifiée en 2023 reposait sur le modèle open source GPT-J-6B.
L’étude souligne que la chaîne Telegram dédiée à la promotion de ce chatbot malveillant rassemble désormais plus de 550 abonnés, constitués à la fois de curieux et de cybercriminels séduits par les offres commerciales proposées par les administrateurs. Pour 220 dollars, ils pourraient ainsi se doter « à vie » d’un assistant virtuel pour mener des campagnes de ransomware.
Les chercheurs attirent par ailleurs l’attention sur l’existence de modèles totalement gratuits disponibles sur GitHub, qui contribuent à abaisser davantage les barrières techniques du cybercrime.
L’un de ces outils, identifié pour la première fois en juillet 2025, est considéré par les chercheurs comme « fonctionnellement puissant » :
« Son installation légère est conçue pour être facile ; lors de nos tests, sa configuration et son exécution ont souvent pris moins de cinq minutes sur la plupart des systèmes d’exploitation Linux. »
Lors des expérimentations, ce chatbot s’est montré capable de générer un courriel de phishing sur mesure, d’écrire un script Python dédié au déplacement latéral sur Linux, et de produire un autre script Python servant à compresser et exfiltrer des données, envoyées ensuite à la boîte mail de l’assaillant.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Toute l'actu tech en un clin d'œil
Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !
Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !












