Lanzamiento importante de DeepSeek. Y es muy importante para los LLMs de código abierto. DeepSeek-V3.2-Speciale está a la par con Gemini-3-Pro en la Olimpiada Internacional de Matemáticas (IMO) 2025 y en la Olimpiada Internacional de Informática (IOI). Incluso supera al Gemini 3 Pro en varios benchmarks. DeepSeek identifica tres cuellos de botella críticos: > mecanismos de atención básicos que se ahogan en secuencias largas, > computación insuficiente tras el entrenamiento, > y débil generalización en escenarios agentivos. Introducen DeepSeek-V3.2, un modelo que aborda los tres problemas simultáneamente. Una innovación clave es la Atención Escasa de DeepSeek (DSA), que reduce la complejidad de atención de O(L²) a O(Lk), donde k es mucho menor que la longitud de la secuencia. Un "indexador relámpago" ligero puntua qué tokens importan, y solo esos tokens top-k reciben toda la atención. El resultado: aceleraciones significativas en contextos largos sin sacrificar rendimiento. Pero la arquitectura por sí sola no es suficiente. DeepSeek asigna computación post-entrenamiento que supera el 10% del coste previo al entrenamiento, una inversión masiva en RL que se traduce directamente en capacidad de razonamiento. Para tareas agentes, construyeron una cadena automática de síntesis de entornos que generaba 1.827 entornos de tareas distintos y 85.000+ prompts complejos. Agentes de código, agentes de búsqueda y tareas generales de planificación (todas sintetizadas a gran escala para entrenamiento en RL) Las cifras: En AIME 2025, DeepSeek-V3.2 alcanza el 93,1% (GPT-5-Alto: 94,6%). En SWE-Verified, el 73,1% se resolvió. En HLE solo texto de texto, un 25,1% frente al 26,3% de GPT-5. Su variante de alto nivel de cálculo, DeepSeek-V3.2-Speciale, va más allá, logrando medallas de oro en IMO 2025 (35/42 puntos), IOI 2025 (492/600) y ICPC World Finals 2025 (10/12 problemas resueltos). Este es el primer modelo abierto que compite de forma creíble con sistemas propietarios de vanguardia en razonamiento, codificación y benchmarks agentes.