🚨 DeepSeek gjorde nettopp noe vilt. De bygde en matematisk modell som ikke bare løser problemer, den sjekker sine egne bevis, kritiserer seg selv, fikser logikken, og prøver igjen til den ikke finner en eneste feil. Den siste delen er gjennombruddet, en modell som kan verifisere sin egen resonnement før du verifiserer den. Og resultatene er latterlige: • Gull-nivå ytelse på IMO 2025 • Gullnivåprestasjoner på CMO 2024 • 118/120 på Putnam 2024 nærmest perfekt, og slår alle menneskelige poengsummer • Overgår GPT-5 Thinking og Gemini 2.5 Pro på de vanskeligste kategoriene Det som gjør DeepSeek Math V2 sprøtt er ikke nøyaktighet, men arkitekturen bak det. De jaget ikke større modeller eller lengre tankerekker. De bygde et økosystem: ✓ En dedikert verifikator som leter etter logiske hull ✓ En meta-verifikator som sjekker om verifikatoren hallusinerer ✓ En bevisgenerator som lærer å frykte dårlig resonnement ✓ og en treningssløyfe der modellen stadig genererer vanskeligere bevis som tvinger verifikatoren til å utvikle seg Syklusen er brutal: Generer → verifiser → meta-verifiserer → fikser → gjentar. Kjerneproblemet de løste: nøyaktigheten i sluttsvaret betyr ingenting i teorembevis. Du kan få riktig tall med søppellogikk. Så de trente en verifikator til å vurdere beviset selv, ikke det endelige svaret. ...