إصدار كبير من DeepSeek. وهذا أمر مهم جدا لنماذج اللغة المفتوحة المصدر. يعد DeepSeek-V3.2-Speciale على مستوى Gemini-3-Pro في الأولمبياد الدولي للرياضيات 2025 (IMO) والأولمبياد الدولي للمعلوماتية (IOI). حتى أنه يتفوق على Gemini 3 Pro في عدة اختبارات أداء (BENCHMARK). تحدد DeepSeek ثلاثة عنق زجاجة حاسم: > آليات الانتباه العادية التي تختنق في التسلسلات الطويلة، > الحوسبة بعد التدريب غير كافية، > وتعميم ضعيف في السيناريوهات الوكالية. يقدمون DeepSeek-V3.2، وهو نموذج يتعامل مع المشاكل الثلاث في آن واحد. أحد الابتكارات الرئيسية هو DeepSeek Sparse Attention (DSA)، الذي يقلل من تعقيد الانتباه من O(L²) إلى O(Lk) حيث يكون k أصغر بكثير من طول التسلسل. مؤشر البرق خفيف الوزن يحدد أي الرموز مهمة، ثم فقط تلك الرموز الأعلى تحصل على الاهتمام الكامل. والنتيجة: تسريع كبير في سياقات طويلة دون التضحية بالأداء. لكن العمارة وحدها ليست كافية. تخصص DeepSeek حسابات بعد التدريب تتجاوز 10٪ من تكلفة التدريب المسبق، وهو استثمار ضخم في التعلم الواقعي يترجم مباشرة إلى قدرة استدلال. بالنسبة للمهام الوكالية، قاموا ببناء خط أنابيب تلقائي لتوليف البيئة يولد 1,827 بيئة مهمة مميزة و85,000+ موجه معقد. وكلاء الشيفرة، وكلاء البحث، ومهام التخطيط العامة (جميعها تم تركيبها على نطاق واسع لتدريب التعلم الواقعي) الأرقام: في AIME 2025، بلغ DeepSeek-V3.2 نسبة 93.1٪ (أعلى معدل GPT-5: 94.6٪). في SWE-Verified (SWE)، تم حل 73.1٪ من المعلومات. أما بالنسبة للرسائل النصية فقط، ف25.1٪ مقارنة ب GPT-5 بنسبة 26.3٪. نسختهم عالية الحوسبة، DeepSeek-V3.2-Speciale، تذهب أبعد من ذلك، حيث حققت ميداليات ذهبية في IMO 2025 (35/42 نقطة)، IOI 2025 (492/600)، ونهائيات ICPC العالمية 2025 (تم حل 10 من 12 مشكلة). هذا هو أول نموذج مفتوح ينافس بشكل موثوق أنظمة الملكية الحدودية عبر معايير الاستدلال والترميز والوكلاء.