Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
DeepSeek V3.2 est le modèle à poids ouverts le plus intelligent au #2 et se classe également devant Grok 4 et Claude Sonnet 4.5 (Thinking) - il sort DeepSeek Sparse Attention du statut ‘expérimental’ et l'associe à un gain matériel d'intelligence.
@deepseek_ai V3.2 obtient un score de 66 sur l'Indice d'Intelligence d'Analyse Artificielle ; un gain d'intelligence substantiel par rapport à DeepSeek V3.2-Exp (+9 points) publié en septembre 2025. DeepSeek a changé son point de terminaison API principal pour V3.2, sans changement de prix par rapport à la tarification de V3.2-Exp - cela fixe le prix à seulement 0,28 $/0,42 $ par 1M de tokens d'entrée/sortie, avec 90 % de réduction pour les tokens d'entrée mis en cache.
Depuis la sortie originale de DeepSeek V3 il y a environ 11 mois à la fin décembre 2024, l'architecture V3 de DeepSeek avec 671B de paramètres totaux/37B de paramètres actifs a vu son score passer de 32 à 66 sur l'Indice d'Intelligence d'Analyse Artificielle.
DeepSeek a également publié V3.2-Speciale, une variante uniquement de raisonnement avec des capacités améliorées mais une utilisation de tokens significativement plus élevée. C'est un compromis courant dans les modèles de raisonnement, où un raisonnement plus amélioré génère généralement des scores d'intelligence plus élevés et plus de tokens de sortie. V3.2-Speciale est disponible via l'API de première partie de DeepSeek jusqu'au 15 décembre.
V3.2-Speciale obtient actuellement un score inférieur sur l'Indice d'Intelligence d'Analyse Artificielle (59) par rapport à V3.2 (Raisonnement, 66) car l'API de première partie de DeepSeek ne prend pas encore en charge l'appel d'outils pour ce modèle. Si V3.2-Speciale égalait le score tau2 de V3.2 (91 %) avec l'appel d'outils activé, il obtiendrait environ 68 sur l'Indice d'Intelligence, en faisant le modèle à poids ouverts le plus intelligent. V3.2-Speciale utilise 160M de tokens de sortie pour exécuter l'Indice d'Intelligence d'Analyse Artificielle, soit presque le double du nombre de tokens utilisés par V3.2 en mode raisonnement.
DeepSeek V3.2 utilise une architecture identique à celle de V3.2-Exp, qui a introduit DeepSeek Sparse Attention (DSA) pour réduire le calcul nécessaire pour l'inférence de long contexte. Notre benchmark de Raisonnement en Long Contexte n'a montré aucun coût d'intelligence lié à l'introduction de DSA. DeepSeek a reflété cet avantage de coût de V3.2-Exp en réduisant les prix de leur API de première partie de 0,56 $/1,68 $ à 0,28 $/0,42 $ par 1M de tokens d'entrée/sortie - une réduction de 50 % et 75 % des prix des tokens d'entrée et de sortie respectivement.
Principaux enseignements des benchmarks :
➤🧠 DeepSeek V3.2 : En mode raisonnement, DeepSeek V3.2 obtient un score de 66 sur l'Indice d'Intelligence d'Analyse Artificielle et se place équivalemment à Kimi K2 Thinking (67) et devant Grok 4 (65), Grok 4.1 Fast (Raisonnement, 64) et Claude Sonnet 4.5 (Thinking, 63). Il démontre des gains notables par rapport à V3.2-Exp (57) dans l'utilisation des outils, le raisonnement en long contexte et la programmation.
➤🧠 DeepSeek V3.2-Speciale : V3.2-Speciale obtient un score plus élevé que V3.2 (Raisonnement) dans 7 des 10 benchmarks de notre Indice d'Intelligence. V3.2-Speciale détient désormais les scores les plus élevés et les deuxièmes plus élevés parmi tous les modèles pour AIME25 (97 %) et LiveCodeBench (90 %) respectivement. Cependant, comme mentionné ci-dessus, l'API de première partie de DeepSeek pour V3.2-Speciale ne prend pas en charge l'appel d'outils et le modèle obtient un score de 0 sur le benchmark tau2.
➤📚 Hallucination et Connaissance : DeepSeek V3.2-Speciale et V3.2 sont les modèles à poids ouverts les mieux classés sur l'Indice d'Omniscience d'Analyse Artificielle avec des scores de -19 et -23 respectivement. Les modèles propriétaires de Google, Anthropic, OpenAI et xAI dominent généralement cet indice.
➤⚡ Performance non raisonnée : En mode non raisonnement, DeepSeek V3.2 obtient un score de 52 sur l'Indice d'Intelligence d'Analyse Artificielle (+6 points par rapport à V3.2-Exp) et est le modèle non raisonné le plus intelligent au #3. DeepSeek V3.2 (Non-raisonnement) égalise l'intelligence de DeepSeek R1 0528, un modèle de raisonnement de pointe de mai 2025, soulignant les gains rapides d'intelligence réalisés grâce à l'amélioration de l'entraînement préalable et du RL cette année.
➤⚙️ Efficacité des tokens : En mode raisonnement, DeepSeek V3.2 a utilisé plus de tokens que V3.2-Exp pour exécuter l'Indice d'Intelligence d'Analyse Artificielle (de 62M à 86M). L'utilisation des tokens reste similaire dans la variante non raisonnée. V3.2-Speciale démontre une utilisation de tokens significativement plus élevée, utilisant environ 160M de tokens de sortie devant Kimi K2 Thinking (140M) et Grok 4 (120M).
➤💲Tarification : DeepSeek n'a pas mis à jour la tarification par token pour leur première partie et les trois variantes sont disponibles à 0,28 $/0,42 $ par 1M de tokens d'entrée/sortie.
Autres détails sur le modèle :
➤ ©️ Licences : DeepSeek V3.2 est disponible sous la licence MIT.
➤ 🌐 Disponibilité : DeepSeek V3.2 est disponible via l'API DeepSeek, qui a remplacé DeepSeek V3.2-Exp. Les utilisateurs peuvent accéder à DeepSeek V3.2-Speciale via une API DeepSeek temporaire jusqu'au 15 décembre. Étant donné le gain d'intelligence dans cette version, nous nous attendons à ce qu'un certain nombre de fournisseurs tiers proposent bientôt ce modèle.
➤ 📏 Taille : DeepSeek V3.2 Exp a 671B de paramètres totaux et 37B de paramètres actifs. C'est la même chose que tous les modèles précédents dans les séries DeepSeek V3 et R1.

Avec le prix de l'API de première partie de DeepSeek de 0,28 $/0,42 $ par 1M de tokens d'entrée/sortie, la V3.2 (Raisonnement) se situe sur la frontière de Pareto du graphique Intelligence vs. Coût d'Exécution de l'Indice d'Analyse d'Intelligence Artificielle.

DeepSeek V3.2-Speciale est le modèle à poids ouverts le mieux classé sur l'Index d'Omniscience d'Analyse Artificielle, tandis que V3.2 (Raisonnement) correspond à Kimi K2 Thinking

DeepSeek V3.2 est plus verbeux que son prédécesseur en mode de raisonnement, utilisant plus de tokens de sortie pour exécuter l'Index d'Analyse Intelligente Artificielle (86M contre 62M).

Comparez comment DeepSeek V3.2 se comporte par rapport aux modèles que vous utilisez ou envisagez à :
66,99K
Meilleurs
Classement
Favoris

