Suuri julkaisu DeepSeekilta. Ja iso juttu avoimen lähdekoodin LLM-malleille. DeepSeek-V3.2-Speciale on samalla tasolla Gemini-3-Pron kanssa vuoden 2025 kansainvälisissä matematiikan olympialaisissa (IMO) ja kansainvälisissä informatiikan olympialaisissa (IOI). Se päihittää jopa Gemini 3 Pron useissa vertailuarvoissa. DeepSeek tunnistaa kolme kriittistä pullonkaulaa: > tavallisia tarkkaavaisuusmekanismeja, jotka tukehtuvat pitkiin jaksoihin, > riittämätön koulutuksen jälkeinen laskenta, > ja heikko yleistys agenttisissa skenaarioissa. He esittelevät DeepSeek-V3.2:n, mallin, joka ratkaisee kaikki kolme ongelmaa samanaikaisesti. Yksi keskeinen innovaatio on DeepSeek Sparse Attention (DSA), joka vähentää tarkkaavaisuuden monimutkaisuutta O(L²):stä O(Lk):han, missä k on paljon pienempi kuin sekvenssin pituus. Kevyt "salaman indeksoija" arvioi, mitkä tokenit ovat tärkeitä, ja vain ne top-k tokenit saavat täyden huomion. Tuloksena on merkittäviä nopeutuksia pitkissä tilanteissa ilman suorituskyvyn tinkimistä. Mutta pelkkä arkkitehtuuri ei riitä. DeepSeek kohdentaa koulutuksen jälkeisen laskennan yli 10 % esikoulutuksen kustannuksista, mikä on valtava RL-investointi, joka suoraan näkyy päättelykykynä. Agenttisille tehtäville he rakensivat automaattisen ympäristösynteesiputken, joka tuotti 1 827 erillistä tehtäväympäristöä ja 85 000+ monimutkaista kehotusta. Koodiagentit, hakuagentit ja yleiset suunnittelutehtävät (kaikki laajassa mittakaavassa yhdistettynä RL-koulutusta varten) Luvut: AIME 2025:ssa DeepSeek-V3.2 saavuttaa 93,1 % (GPT-5-High: 94,6 %). SWE-Varmennuksella 73,1 % ratkaistu. HLE:n tekstiviestillä 25,1 % verrattuna GPT-5:n 26,3 %:iin. Heidän korkean laskentatehonsa DeepSeek-V3.2-Speciale menee pidemmälle, saavuttaen kultamitalit IMO 2025:ssä (35/42 pistettä), IOI 2025:ssä (492/600) ja ICPC World Finals 2025:ssä (10/12 ongelmat ratkaistu). Tämä on ensimmäinen avoin malli, joka uskottavasti kilpailee rajaseudun omistusjärjestelmien kanssa päättelyn, koodauksen ja agenttien vertailuarvojen osalta.