Крупный релиз от DeepSeek. И это большое событие для открытых LLM. DeepSeek-V3.2-Speciale наравне с Gemini-3-Pro на Международной математической олимпиаде (IMO) 2025 года и Международной олимпиаде по информатике (IOI). Он даже превосходит Gemini 3 Pro по нескольким бенчмаркам. DeepSeek выявляет три критических узких места: > обычные механизмы внимания, которые не справляются с длинными последовательностями, > недостаточные вычислительные ресурсы после обучения, > и слабая обобщаемость в агентных сценариях. Они представляют DeepSeek-V3.2, модель, которая одновременно решает все три проблемы. Одним из ключевых нововведений является DeepSeek Sparse Attention (DSA), который снижает сложность внимания с O(L²) до O(Lk), где k значительно меньше длины последовательности. Легкий "индексатор молний" оценивает, какие токены важны, и только эти топ-k токены получают полное внимание. Результат: значительное ускорение на длинных контекстах без ущерба для производительности. Но одной архитектуры недостаточно. DeepSeek выделяет вычислительные ресурсы после обучения, превышающие 10% от стоимости предобучения, что является огромной инвестицией в RL, которая напрямую переводится в способность к рассуждению. Для агентных задач они создали автоматизированный конвейер синтеза окружения, генерирующий 1,827 различных задач и более 85,000 сложных подсказок. Кодовые агенты, поисковые агенты и общие задачи планирования (все синтезированы в масштабе для обучения RL). Цифры: на AIME 2025 DeepSeek-V3.2 достигает 93.1% (GPT-5-High: 94.6%). На SWE-Verified 73.1% решено. На HLE только текст 25.1% по сравнению с 26.3% у GPT-5. Их высокопроизводительный вариант, DeepSeek-V3.2-Speciale, идет дальше, достигая золотых медалей на IMO 2025 (35/42 балла), IOI 2025 (492/600) и ICPC World Finals 2025 (10/12 задач решено). Это первая открытая модель, которая может уверенно конкурировать с передовыми проприетарными системами по критериям рассуждения, кодирования и агентных бенчмарков.