Rilis besar dari DeepSeek. Dan masalah besar untuk LLM sumber terbuka. DeepSeek-V3.2-Speciale setara dengan Gemini-3-Pro pada Olimpiade Matematika Internasional (IMO) 2025 dan Olimpiade Internasional dalam Informatika (IOI). Bahkan melampaui Gemini 3 Pro pada beberapa tolok ukur. DeepSeek mengidentifikasi tiga hambatan kritis: > mekanisme perhatian vanila yang tersedak pada urutan panjang, > komputasi pasca-pelatihan yang tidak mencukupi, > dan generalisasi lemah dalam skenario agen. Mereka memperkenalkan DeepSeek-V3.2, model yang mengatasi ketiga masalah secara bersamaan. Salah satu inovasi utama adalah DeepSeek Sparse Attention (DSA), yang mengurangi kompleksitas perhatian dari O(L²) menjadi O(Lk) di mana k jauh lebih kecil daripada panjang urutan. "Pengindeks petir" yang ringan menilai token mana yang penting, maka hanya token top-k yang mendapat perhatian penuh. Hasilnya: percepatan yang signifikan pada konteks panjang tanpa mengorbankan kinerja. Tapi arsitektur saja tidak cukup. DeepSeek mengalokasikan komputasi pasca-pelatihan melebihi 10% dari biaya pra-pelatihan, investasi RL besar-besaran yang secara langsung diterjemahkan ke kemampuan penalaran. Untuk tugas agen, mereka membangun alur sintesis lingkungan otomatis yang menghasilkan 1.827 lingkungan tugas berbeda dan 85.000+ perintah kompleks. Agen kode, agen pencarian, dan tugas perencanaan umum (semuanya disintesis dalam skala besar untuk pelatihan RL) Angka-angka: Pada AIME 2025, DeepSeek-V3.2 mencapai 93.1% (GPT-5-High: 94.6%). Pada SWE-Verified, 73,1% teratasi. Pada HLE text-only, 25,1% dibandingkan dengan GPT-5 26,3%. Varian komputasi tinggi mereka, DeepSeek-V3.2-Speciale, melangkah lebih jauh, meraih medali emas di IMO 2025 (35/42 poin), IOI 2025 (492/600), dan ICPC World Finals 2025 (10/12 masalah terpecahkan). Ini adalah model terbuka pertama yang secara kredibel bersaing dengan sistem kepemilikan perbatasan di seluruh penalaran, pengkodean, dan tolok ukur agen.