Et bilde for å forstå DeepSeeks nye modell, DeepSeek-Math-V2! DeepSeek har nettopp lansert DeepSeek-Math-V2! Ja, dette er en domenespesifikk modell for matematisk resonnement, denne gangen basert på DeepSeek-V3.2 for ettertrening/finjustering, noe som betyr at DeepSeek har gått helt over til den nye arkitekturen. Når det gjelder prestasjoner, nådde IMO 2025 (International Mathematical Olympiad) 83,3 %, og nådde IMO-gullmedaljenivået. ProofBench-Basic oppdaterte direkte, og scoret 99 %, og knuste alle andre modeller. ProofBench-Advanced er kun slått av Gemini Deep Think (dette er en plattform med en agent, ikke en ren modell). Forresten, årets IMO 2025 er også den første i landet vårt. Deretter gjennomsnittet jeg DeepSeek-Math-V2s poengsum på 83,3 % direkte på hvert spørsmål, og poengsummen skal være 210 av 252 med 83,3 % nøyaktighet, noe som kan ligge mellom USA (216 poeng) og Sør-Korea (203 poeng), altså 3. plass.