Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Et bilde for å forstå DeepSeeks nye modell, DeepSeek-Math-V2!
DeepSeek har nettopp lansert DeepSeek-Math-V2!
Ja, dette er en domenespesifikk modell for matematisk resonnement, denne gangen basert på DeepSeek-V3.2 for ettertrening/finjustering, noe som betyr at DeepSeek har gått helt over til den nye arkitekturen.
Når det gjelder prestasjoner, nådde IMO 2025 (International Mathematical Olympiad) 83,3 %, og nådde IMO-gullmedaljenivået. ProofBench-Basic oppdaterte direkte, og scoret 99 %, og knuste alle andre modeller. ProofBench-Advanced er kun slått av Gemini Deep Think (dette er en plattform med en agent, ikke en ren modell).
Forresten, årets IMO 2025 er også den første i landet vårt. Deretter gjennomsnittet jeg DeepSeek-Math-V2s poengsum på 83,3 % direkte på hvert spørsmål, og poengsummen skal være 210 av 252 med 83,3 % nøyaktighet, noe som kan ligge mellom USA (216 poeng) og Sør-Korea (203 poeng), altså 3. plass.

Topp
Rangering
Favoritter

