Lansare majoră de la DeepSeek. Și un lucru important pentru LLM-urile open-source. DeepSeek-V3.2-Speciale este la același nivel cu Gemini-3-Pro la Olimpiada Internațională de Matematică (IMO) din 2025 și la Olimpiada Internațională de Informatică (IOI). Chiar îl depășește pe Gemini 3 Pro la mai multe benchmark-uri. DeepSeek identifică trei blocaje critice: > mecanismele de atenție vanilă care se blochează pe secvențe lungi, > calcul insuficient după antrenament, > și generalizări slabe în scenarii agentice. Ei introduc DeepSeek-V3.2, un model care abordează simultan toate cele trei probleme. O inovație cheie este DeepSeek Sparse Attention (DSA), care reduce complexitatea atenției de la O(L²) la O(Lk), unde k este mult mai mic decât lungimea secvenței. Un "indexator fulger" ușor evaluează care tokenuri contează, apoi doar cele top-k token primesc atenția completă. Rezultatul: accelerări semnificative pe contexte lungi fără a pierde performanța. Dar arhitectura singură nu este suficientă. DeepSeek alocă calcul post-antrenament care depășește 10% din costul pre-antrenament, o investiție masivă în RL care se traduce direct în capacitatea de raționament. Pentru sarcinile agențice, au construit un pipeline automat de sinteză a mediului care a generat 1.827 de medii distincte de sarcini și 85.000+ prompturi complexe. Agenți de cod, agenți de căutare și sarcini generale de planificare (toate sintetizate la scară largă pentru antrenamentul RL) Cifrele: La AIME 2025, DeepSeek-V3.2 atinge 93,1% (GPT-5-High: 94,6%). La SWE-Verificified, 73,1% s-au rezolvat. Pe HLE doar text, 25,1% comparativ cu 26,3% pentru GPT-5. Varianta lor cu calcul ridicat, DeepSeek-V3.2-Speciale, merge mai departe, obținând medalii de aur la IMO 2025 (35/42 puncte), IOI 2025 (492/600) și ICPC World Finals 2025 (10/12 probleme rezolvate). Acesta este primul model deschis care concurează credibil cu sistemele proprietare de frontieră în raționament, codare și benchmark-uri agențice.