Grande lançamento da DeepSeek. E é um grande acontecimento para LLMs open-source. O DeepSeek-V3.2-Speciale está no mesmo nível do Gemini-3-Pro na Olimpíada Internacional de Matemática (IMO) de 2025 e na Olimpíada Internacional de Informática (IOI). Ele até supera o Gemini 3 Pro em vários benchmarks. O DeepSeek identifica três gargalos críticos: > mecanismos de atenção simples que travam em sequências longas, > computação pós-treinamento insuficiente, > e uma generalização fraca em cenários agentivos. Eles apresentam o DeepSeek-V3.2, um modelo que resolve os três problemas simultaneamente. Uma inovação chave é a DeepSeek Sparse Attention (DSA), que reduz a complexidade de atenção de O(L²) para O(Lk), onde k é muito menor que o comprimento da sequência. Um "lightning indexer" leve pontua quais tokens importam, então apenas aqueles top-k tokens recebem total atenção. O resultado: acelerações significativas em contextos longos sem sacrificar desempenho. Mas a arquitetura sozinha não é suficiente. A DeepSeek aloca computação pós-treinamento que ultrapassa 10% do custo pré-treinamento, um investimento massivo em RL que se traduz diretamente em capacidade de raciocínio. Para tarefas agentes, eles construíram um pipeline automático de síntese de ambientes gerando 1.827 ambientes de tarefas distintos e 85.000+ prompts complexos. Agentes de código, agentes de busca e tarefas gerais de planejamento (todos sintetizados em escala para treinamento em RL) Os números: No AIME 2025, o DeepSeek-V3.2 atinge 93,1% (GPT-5-Máximo: 94,6%). No SWE-Verified, 73,1% resolvido. No HLE apenas em texto, 25,1% contra 26,3% do GPT-5. Sua variante de alto nível de computação, DeepSeek-V3.2-Speciale, vai além, conquistando medalhas de ouro no IMO 2025 (35/42 pontos), IOI 2025 (492/600) e ICPC World Finals 2025 (10/12 problemas resolvidos). Este é o primeiro modelo aberto a competir de forma credível com sistemas proprietários de fronteira em raciocínio, codificação e benchmarks agentivos.