Stor utgivelse fra DeepSeek. Og en stor greie for åpen kildekode-LLM-er. DeepSeek-V3.2-Speciale er på nivå med Gemini-3-Pro i International Mathematical Olympiad 2025 (IMO) og International Olympiad in Informatics (IOI). Den overgår til og med Gemini 3 Pro på flere benchmarks. DeepSeek identifiserer tre kritiske flaskehalser: > vanilje-oppmerksomhetsmekanismer som kveles på lange sekvenser, > utilstrekkelig ettertreningsberegning, > og svak generalisering i agentiske scenarier. De introduserer DeepSeek-V3.2, en modell som løser alle tre problemene samtidig. En viktig innovasjon er DeepSeek Sparse Attention (DSA), som reduserer oppmerksomhetskompleksiteten fra O(L²) til O(Lk) hvor k er langt mindre enn sekvenslengden. En lettvekts "lightning indexer" vurderer hvilke tokens som betyr noe, og da får bare de topp 000 tokenene full oppmerksomhet. Resultatet: betydelige hastighetsøkninger i lange kontekster uten å ofre ytelsen. Men arkitektur alene er ikke nok. DeepSeek tildeler post-training compute som overstiger 10 % av pre-training kostnaden, en massiv RL-investering som direkte oversettes til resonnement. For agentiske oppgaver bygde de en automatisk miljøsyntese-pipeline som genererte 1 827 distinkte oppgavemiljøer og 85 000+ komplekse prompts. Kodeagenter, søkeagenter og generelle planleggingsoppgaver (alle syntetisert i stor skala for RL-trening) Tallene: På AIME 2025 når DeepSeek-V3.2 93,1 % (GPT-5-High: 94,6 %). På SWE-Verified, løste 73,1 % seg. På HLE kun tekstmelding, 25,1 % sammenlignet med GPT-5s 26,3 %. Deres høy-beregningsvariant, DeepSeek-V3.2-Speciale, går enda lenger og oppnår gullmedaljer i IMO 2025 (35/42 poeng), IOI 2025 (492/600) og ICPC World Finals 2025 (10/12 problemer løst). Dette er den første åpne modellen som troverdig konkurrerer med Frontier proprietære systemer innen resonnement, koding og agentiske benchmarks.