DeepSeek vient de présenter DeepSeek-V3.2. Ce nouveau modèle d'intelligence artificielle open source parvient à égaler les performances du GPT-5 d'OpenAI et du Gemini 3 Pro de Google sur des tests clés, marquant une avancée significative.

Une architecture d'IA repensée pour plus d'efficacité et après l'entraînement
Pour concevoir cette version, les ingénieurs ont ciblé trois faiblesses récurrentes des modèles ouverts actuels :
- traitement inefficace des textes longs
- la faiblesse des agents autonomes
- sous-investissement dans la phase post-entraînement.
La réponse technique réside dans une nouvelle architecture d’attention appelée DeepSeek Sparse Attention (DSA). Contrairement aux modèles standards qui revérifient chaque élément précédent pour générer une réponse, DSA utilise un système d'indexation pour identifier uniquement les parties essentielles de l'historique. Cette méthode réduit considérablement les coûts de calcul sans sacrifier la qualité.
L’autre levier majeur est financier et stratégique. DeepSeek a massivement augmenté les ressources allouées au post-formation, cette phase critique de l’apprentissage par alignement et par renforcement. Ce budget dépasse désormais 10 % des coûts initiaux de pré-entraînement, contre environ 1 % il y a deux ans. Pour alimenter cette machine, l'équipe a généré des données via des modèles mathématiques et de programmation spécialisés, tout en créant plus de 1 800 environnements synthétiques basés sur des problèmes réels issus de GitHub.
DeepSeek-V3.2 suit GPT-5 et Gemini 3 Pro
Les résultats des benchmarks DeepSeek-V3.2 confirment la pertinence de cette approche. Lors du concours de mathématiques AIME 2025, DeepSeek-V3.2 a obtenu un score de 93,1 %, derrière le GPT-5 (Élevé) d'OpenAI avec ses 94,6 %. Dans le domaine de la programmation via LiveCodeBench, il atteint 83,3%, juste derrière les 84,5% de son rival américain. Si Gemini 3 Pro conserve la tête de ces données, l'écart se réduit dangereusement.
Le modèle chinois prend même l'avantage sur certains terrains complexes. Dans le test SWE Multilingual, qui évalue le développement de logiciels sur la base de problèmes du monde réel, DeepSeek-V3.2 résout 70,2 % des cas, surpassant les 55,3 % de GPT-5. Il domine également ce dernier sur Terminal Bench 2.0, prouvant ses capacités supérieures pour les tâches d'agent autonome, même s'il reste en retrait par rapport à l'IA de Google.
🏆 Raisonnement de pointe au monde
🔹 V3.2 : Inférence équilibrée par rapport à la longueur. Votre pilote quotidien aux performances de niveau GPT-5.
🔹 V3.2-Speciale : Capacités de raisonnement maximales. Gemini-3.0-Pro Rivaux.
🥇 Performance Médaille d'Or : la V3.2-Speciale obtient des résultats de niveau or dans IMO, CMO, ICPC World… pic.twitter.com/ZFGzDMshBy— Recherche profonde (@deepseek_ai) 1 décembre 2025
Une variante spéciale est disponible
Parallèlement, DeepSeek a lancé une version appelée DeepSeekV3.2-Speciale. Débridée par les restrictions de longueur des chaînes de raisonnement, elle a remporté une médaille d'or aux Olympiades internationales d'informatique 2025 (10e place). Cependant, ce pouvoir a un coût prohibitif : résoudre des problèmes complexes nécessite en moyenne 77 000 jetons, contre seulement 22 000 pour Gemini.
Malgré cette réussite, DeepSeek admet qu’il est encore à la traîne des modèles économiques de pointe dans trois domaines :
- l'étendue des connaissances
- efficacité en termes de jetons
- performance sur les tâches les plus complexes
Disponible maintenant sur Visage câlin et via l'API, cette version place néanmoins DeepSeek au centre de la guerre des prix, offrant une alternative économique crédible aux workflows basés sur des agents d'IA.






