Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 DeepSeek heeft net iets wilds gedaan.
Ze hebben een wiskundig model gebouwd dat niet alleen problemen oplost, maar ook zijn eigen bewijzen controleert, zichzelf bekritiseert, de logica corrigeert en het opnieuw probeert totdat het geen enkele fout kan vinden.
Dat laatste deel is de doorbraak: een model dat zijn eigen redenering kan verifiëren voordat jij het verifieert.
En de resultaten zijn belachelijk:
• Gouden niveau prestaties op IMO 2025
• Gouden niveau prestaties op CMO 2024
• 118/120 op Putnam 2024 bijna perfect, beter dan elke menselijke score
• Presteert beter dan GPT-5 Thinking en Gemini 2.5 Pro in de moeilijkste categorieën
Wat DeepSeek Math V2 gek maakt, is niet de nauwkeurigheid, maar de architectuur erachter.
Ze hebben niet grotere modellen of langere ketens van gedachten nagestreefd.
Ze hebben een ecosysteem gebouwd:
✓ een toegewijde verifier die op zoek gaat naar logische hiaten
✓ een meta-verifier die controleert of de verifier hallucinaties heeft
✓ een bewijs-generator die leert bang te zijn voor slechte redeneringen
✓ en een trainingslus waarin het model steeds moeilijkere bewijzen blijft genereren die de verifier dwingen om te evolueren
De cyclus is meedogenloos:
Genereren → Verifiëren → Meta-verifiëren → Corrigeren → Herhalen.
Het kernprobleem dat ze hebben opgelost: de nauwkeurigheid van het eindantwoord betekent niets in het bewijzen van stellingen. Je kunt het juiste getal krijgen met waardeloze logica. Dus hebben ze een verifier getraind om het bewijs zelf te beoordelen, niet het eindantwoord.
...

Boven
Positie
Favorieten

