Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Lanzamiento importante de DeepSeek.
Y un gran avance para los LLMs de código abierto.
DeepSeek-V3.2-Speciale está a la par con Gemini-3-Pro en la Olimpiada Internacional de Matemáticas (IMO) 2025 y la Olimpiada Internacional en Informática (IOI).
Incluso supera al Gemini 3 Pro en varios benchmarks.
DeepSeek identifica tres cuellos de botella críticos:
> mecanismos de atención vanilla que se ahogan en secuencias largas,
> insuficiente computación post-entrenamiento,
> y débil generalización en escenarios agenticos.
Introducen DeepSeek-V3.2, un modelo que aborda los tres problemas simultáneamente.
Una innovación clave es la Atención Dispersa de DeepSeek (DSA), que reduce la complejidad de atención de O(L²) a O(Lk) donde k es mucho menor que la longitud de la secuencia. Un "indexador relámpago" ligero puntúa qué tokens importan, y solo esos tokens top-k reciben atención completa.
El resultado: aceleraciones significativas en contextos largos sin sacrificar el rendimiento.
Pero la arquitectura por sí sola no es suficiente. DeepSeek asigna computación post-entrenamiento que supera el 10% del costo de pre-entrenamiento, una inversión masiva en RL que se traduce directamente en capacidad de razonamiento.
Para tareas agenticas, construyeron un pipeline automático de síntesis de entornos que genera 1,827 entornos de tareas distintos y más de 85,000 prompts complejos. Agentes de código, agentes de búsqueda y tareas de planificación general (todas sintetizadas a gran escala para el entrenamiento de RL).
Los números: En AIME 2025, DeepSeek-V3.2 alcanza el 93.1% (GPT-5-High: 94.6%). En SWE-Verified, 73.1% resuelto. En HLE solo texto, 25.1% en comparación con el 26.3% de GPT-5.
Su variante de alta computación, DeepSeek-V3.2-Speciale, va más allá, logrando medallas de oro en IMO 2025 (35/42 puntos), IOI 2025 (492/600) y en las Finales Mundiales de ICPC 2025 (10/12 problemas resueltos).
Este es el primer modelo abierto que compite de manera creíble con sistemas propietarios de vanguardia en benchmarks de razonamiento, codificación y agenticos.

Parte superior
Clasificación
Favoritos

