Великий реліз від DeepSeek. І це велика подія для відкритих LLM. DeepSeek-V3.2-Speciale нарівні з Gemini-3-Pro на Міжнародній математичній олімпіаді 2025 року (IMO) та Міжнародній олімпіаді з інформатики (IOI). Він навіть перевершує Gemini 3 Pro у кількох тестах. DeepSeek визначає три критичні вузькі місця: > звичайні механізми уваги, які задихаються на довгих послідовностях, > недостатньо обчислення після навчання, > та слабке узагальнення в агентних сценаріях. Вони представляють DeepSeek-V3.2 — модель, яка одночасно вирішує всі три проблеми. Однією з ключових інновацій є DeepSeek Sparse Attention (DSA), яка знижує складність уваги з O(L²) до O(Lk), де k значно менша за довжину послідовності. Легкий «блискавичний індексатор» оцінює, які токени мають значення, і тоді лише ці топ-k токени отримують повну увагу. Результат: значне прискорення на довгих контекстах без втрати продуктивності. Але однієї архітектури недостатньо. DeepSeek розподіляє обчислення після навчання, що перевищує 10% від вартості попереднього навчання — це величезна інвестиція в реальну реальність, яка безпосередньо впливає на здатність мислити. Для агентних завдань вони побудували автоматичний конвеєр синтезу середовища, генеруючи 1 827 окремих середовищ завдань і 85 000+ складних запитів. Кодові агенти, пошукові агенти та загальні планувальні завдання (усі синтезовані у масштабі для навчання RL) Цифри: на AIME 2025 DeepSeek-V3.2 досягає 93,1% (GPT-5-High: 94,6%). На SWE-Verified 73,1% розв'язано. На HLE — 25,1% порівняно з 26,3% у GPT-5 — 26,3%. Їхній високопродуктивний варіант DeepSeek-V3.2-Speciale йде далі, здобувши золоті медалі на IMO 2025 (35/42 бали), IOI 2025 (492/600) та ICPC World Finals 2025 (10 з 12 проблем вирішено). Це перша відкрита модель, яка надійно конкурує з пропрієтарними системами фронтиру у сферах мислення, кодування та агентних бенчмарків.