Après avoir lancé une version expérimentale de son modèle V3.2 en septembre, DeepSeek annonce le 1ᵉʳ décembre publier deux nouveaux modèles : V3.2-Thinking et V3.2Speciale, conçus pour mettre fin à la domination de Gemini 3 Pro. Dans de nombreux tests mathématiques, le modèle chinois bat celui de Google.

Les entreprises d’intelligence artificielle générative n’en finissent plus de lancer de nouvelles versions de leurs modèles, en cette fin d’année 2025. Après Google Gemini 3 Pro qui a battu tous les records en novembre, et les répliques d’OpenAI (GPT-5.1-High) et Anthropic (Claude 4.5 Opus), c’est au tour d’une startup chinoise de répondre à la domination très éphémère de Google.

DeepSeek, qui avait déjà provoqué un séisme en début d’année avec ses modèles open source économes (le fameux R1), fait son grand retour. L’entreprise a dévoilé le 1ᵉʳ décembre deux nouveaux modèles : DeepSeek-V3.2 et DeepSeekV3.2-Speciale. Ils remplacent la famille V3.1 lancée en août avec une promesse audacieuse : offrir les performances des modèles propriétaires américains les plus coûteux, mais en open source et avec une efficacité redoutable. Son rapport complet peut être consulté sur Hugging Face.

Quelles sont les nouveautés de DeepSeek-V3.2 ?

Au programme chez DeepSeek en cette fin d’année, il y a deux nouveaux modèles de langage :

  • DeepSeek-V3.2 (Standard / Thinking) : sa grande nouveauté est sa capacité à conserver son « fil de pensée » même lorsqu’il utilise des outils externes (comme une recherche web ou un interpréteur de code). Jusqu’ici, la plupart des modèles « oubliaient » leur raisonnement au moment d’appeler un outil. V3.2 corrige ce défaut grâce à un entraînement massif basé sur 85 000 prompts. DeepSeek le présente comme un concurrent de GPT-5-High, réservé aux abonnés ChatGPT Pro à 220 euros par mois.
  • DeepSeek-V3.2-Speciale : il s’agit d’une version débridée conçue spécifiquement pour le raisonnement pur (mathématiques, logique complexe), sans outils. Il est fait pour réfléchir et vise à concurrencer Google et ses résultats dans les tests les plus exigeants.
Les résultats des modèles V3.2 comparés à ceux des autres modèles haut de gamme.
Les résultats des modèles V3.2 comparés à ceux des autres modèles haut de gamme. // Source : DeepSeek

Comment une startup chinoise parvient-elle à talonner Google sans disposer de son immense capacité en serveurs ? La réponse tient dans une nouvelle architecture technique détaillée dans leur rapport : la DeepSeek Sparse Attention (DSA).

Là où un modèle classique recalcule les liens entre tous les mots d’un texte (ce qui devient exponentiellement lourd sur les longs contextes), V3.2 utilise un « indexeur éclair » qui sélectionne uniquement les informations pertinentes avant de les traiter. Cela permet de réduire la puissance requise pour les requêtes les plus compliquées, et donc de baisser les coûts.

Les modèles de la famille V3.2 sont toujours open source : n’importe quel développeur ou entreprise peut les télécharger sur Hugging Face et les faire tourner en local.

DeepSeek bat des records en mathématiques et met la pression à Google

Si les précédents modèles DeepSeek visaient à mettre à mal OpenAI et sa stratégie avec ChatGPT, les modèles V3.2 ont une approche différente : les maths. En juillet dernier, Google créait l’événement en annonçant que son modèle Gemini (version Deep Think) avait atteint le niveau « Médaille d’Or » aux Olympiades Internationales de Mathématiques (IMO) en résolvant 5 problèmes sur 6 pour un score de 35/42. Une première historique pour une IA… avec un modèle jamais publié au grand jour.

Cinq mois plus tard, DeepSeek égalise. Le modèle DeepSeek-V3.2-Speciale a obtenu exactement le même score aux IMO 2025 : 35 sur 42, soit une médaille d’or. Mais la différence est dans la disponibilité : tout le monde peut télécharger DeepSeek-V3.2-Speciale aujourd’hui.

BenchmarkDeepSeek-V3.2 (Thinking)DeepSeek-V3.2-SpecialeGPT-5-HighGemini-3-Pro
AIME 2025 (Maths)93.1 %96.0 %94.6 %95.0 %
Codeforces (Rating)2 3862 7012 5372 708
GPQA Diamond (Expert)82.4 %85.7 %85.7 %91.9 %
HMMT Feb 202592.5 %99.2 %88.3 %97.5 %

Dans les autres benchmarks, DeekSeep-V.3.2-Speciale permet aussi au Chinois de rivaliser avec Google et OpenAI. Sur le test AIME 2025 par exemple (mathématiques avancées), DeepSeek-V3.2-Speciale atteint 96.0%, dépassant de peu Gemini-3-Pro (95.0%) et plus largement GPT-5-High (94.6%). Le modèle de Google reste meilleur sur d’autres tests, mais la Chine envoie un message fort aux États-Unis.

Malgré ces quelques exploits, DeepSeek-V.3.2 reste un modèle avec des défauts, comme une fenêtre de contexte bloquée à 128 000 tokens (plus d’1 million pour Gemini 3 Pro). DeepSeek indique aussi que son modèle est meilleur avec les nombres qu’avec les mots : il peut être un peu trop bavard. L’exploit technologique reste au rendez-vous : DeepSeek doit être traité comme un vrai rival de Google, OpenAI et Anthropic, d’autant plus que le coût par requête est bien plus bas avec ses modèles.

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+
Toute l'actu tech en un clien d'oeil

Toute l'actu tech en un clin d'œil

Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !


Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !