DeepSeek V3.2 es el modelo de pesos abiertos #2 más inteligente y también está por delante de Grok 4 y Claude Sonnet 4.5 (Pensamiento): saca a DeepSeek Sparse Attention del estatus de 'experimental' y lo combina con un impulso material a la inteligencia @deepseek_ai V3.2 obtiene una puntuación de 66 en el Índice de Inteligencia de Análisis Artificial; un aumento sustancial de inteligencia respecto a DeepSeek V3.2-Exp (+9 puntos) lanzado en septiembre de 2025. DeepSeek ha cambiado su endpoint principal de la API a la V3.2, sin cambios de precio respecto al precio V3.2-Exp; esto sitúa el precio en solo 0,28 $/0,42 $ por cada 1 millón de tokens de entrada/salida, con un 90% de descuento para tokens de entrada en caché. Desde el lanzamiento original de DeepSeek V3 hace ~11 meses a finales de diciembre de 2024, la arquitectura V3 de DeepSeek con 671B totales/37B de parámetros activos les ha hecho pasar de un modelo con un 32 a un 66 en el Índice de Inteligencia de Análisis Artificial. DeepSeek también ha lanzado la versión V3.2-Speciale, una variante solo de razonamiento con capacidades mejoradas pero un uso significativamente mayor de tokens. Este es un compromiso común en los modelos de razonamiento, donde un razonamiento más avanzado generalmente produce puntuaciones de inteligencia más altas y más tokens de salida. La versión 3.2-Speciale está disponible a través de la API de primera mano de DeepSeek hasta el 15 de diciembre. Actualmente, la V3.2-Speciale obtiene una puntuación inferior en el Índice de Inteligencia de Análisis Artificial (59) que la V3.2 (Reasoning, 66) porque la API de primera mano de DeepSeek aún no soporta la herramienta que solicita este modelo. Si V3.2-Speciale igualara la puntuación tau2 de V3.2 (91%) con la llamada de herramienta activada, obtendría una puntuación de ~68 en el Índice de Inteligencia, convirtiéndose en el modelo de pesos abiertos más inteligente. V3.2-Speciale utiliza 160 millones de tokens de salida para ejecutar el Índice de Inteligencia de Análisis Artificial, casi ~2 veces el número de tokens usados por V3.2 en modo razonamiento. DeepSeek V3.2 utiliza una arquitectura idéntica a la V3.2-Exp, que introdujo DeepSeek Sparse Attention (DSA) para reducir el cálculo necesario para la inferencia de contexto prolongado. Nuestro benchmark de razonamiento de contexto largo no mostró ningún coste para la inteligencia con la introducción de la DSA. DeepSeek reflejó esta ventaja de coste de V3.2-Exp al reducir los precios en su API de primera mano de 0,56/1,68 $ a 0,28/0,42 $ por cada 1 millón de tokens de entrada/salida, una reducción del 50% y 75% en el precio de los tokens de entrada y salida respectivamente. Principales conclusiones del benchmarking: ➤ 🧠 DeepSeek V3.2: En modo razonamiento, DeepSeek V3.2 obtiene una puntuación de 66 en el Índice de Inteligencia de Análisis Artificial y se sitúa equivalentemente a Kimi K2 Thinking (67) y por delante de Grok 4 (65), Grok 4.1 Fast (Razonamiento, 64) y Claude Sonnet 4.5 (Thinking, 63). Demuestra mejoras notables en comparación con V3.2-Exp (57) en el uso de herramientas, razonamiento de contexto largo y codificación. ➤ 🧠 DeepSeek V3.2-Speciale: V3.2-Speciale obtiene puntuaciones superiores a V3.2 (Razonamiento) en 7 de los 10 puntos de referencia de nuestro Índice de Inteligencia. V3.2-Speciale ahora tiene las puntuaciones más altas y la segunda más alta entre todos los modelos de AIME25 (97%) y LiveCodeBench (90%) respectivamente. Sin embargo, como se mencionó antes, la API de primera mano de DeepSeek para V3.2-Speciale no soporta llamada a herramientas y el modelo obtiene una puntuación de 0 en el benchmark tau2. ➤ 📚 Alucinación y Conocimiento: DeepSeek V3.2-Speciale y V3.2 son los modelos de peso abierto mejor valorados en el Índice de Onmisciencia de Análisis Artificial, con puntuaciones de -19 y -23 respectivamente. Los modelos propietarios de Google, Anthropic, OpenAI y xAI suelen liderar este índice. ➤ ⚡ Rendimiento no razonante: En modo no razonante, DeepSeek V3.2 obtiene una puntuación de 52 en el Índice de Inteligencia de Análisis Artificial (+6 puntos frente a V3.2-Exp) y es el modelo no razonante más inteligente #3. DeepSeek V3.2 (No razonamiento) coincide con la inteligencia de DeepSeek R1 0528, un modelo de razonamiento pionero de mayo de 2025, destacando los rápidos avances en inteligencia logrados a través de mejoras en preentrenamiento y RL este año. ➤ ⚙️ Eficiencia de tokens: En modo razonamiento, DeepSeek V3.2 utilizó más tokens que V3.2-Exp para ejecutar el Índice de Inteligencia de Análisis Artificial (de 62M a 86M). El uso de tokens sigue siendo similar en variantes sin razonamiento. V3.2-Speciale demuestra un uso significativamente mayor de tokens, utilizando ~160M de tokens de salida por delante de Kimi K2 Thinking (140M) y Grok 4 (120M) ➤💲Precios: DeepSeek no ha actualizado el precio por token para su propio token y las tres variantes están disponibles a $0,28/$0,42 por 1M de tokens de entrada/salida Otros detalles del modelo: ➤ ©️ Licencias: DeepSeek V3.2 está disponible bajo la licencia MIT ➤ 🌐 Disponibilidad: DeepSeek V3.2 está disponible a través de la API DeepSeek, que ha reemplazado a DeepSeek V3.2-Exp. Los usuarios pueden acceder a DeepSeek V3.2-Speciale mediante una API temporal de DeepSeek hasta el 15 de diciembre. Dado el aumento de inteligencia en este comunicado, esperamos que pronto varios proveedores externos sirvan este modelo. ➤ 📏 Tamaño: DeepSeek V3.2 Exp tiene 671B de parámetros totales y 37B de parámetros activos. Esto es igual que todos los modelos anteriores de las series DeepSeek V3 y R1
Con el precio de API de primera mano de DeepSeek de 0,28 $/0,42 $ por 1 millón de tokens de entrada/salida, la V3.2 (Razonamiento) se sitúa en la frontera de Pareto del gráfico Inteligencia vs. Coste para Ejecutar Inteligencia en Análisis Artificial
DeepSeek V3.2-Speciale es el modelo de pesos abiertos mejor posicionado en el Índice de Onmisciencia de Análisis Artificial, mientras que V3.2 (Razonamiento) coincide con Kimi K2 Thinking
DeepSeek V3.2 es más extenso que su predecesor en modo razonamiento, utilizando más tokens de salida para ejecutar el Índice de Inteligencia de Análisis Artificial (86M frente a 62M).
Compara cómo funciona DeepSeek V3.2 en relación con los modelos que estás usando o considerando en:
67.05K