Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 DeepSeek vient de faire quelque chose de fou.
Ils ont construit un modèle mathématique qui ne se contente pas de résoudre des problèmes, il vérifie ses propres preuves, se critique, corrige la logique et essaie à nouveau jusqu'à ce qu'il ne trouve plus aucune faille.
Cette dernière partie est la percée : un modèle qui peut vérifier son propre raisonnement avant que vous ne le vérifiiez.
Et les résultats sont ridicules :
• Performance de niveau or sur l'IMO 2025
• Performance de niveau or sur le CMO 2024
• 118/120 sur le Putnam 2024, presque parfait, battant tous les scores humains
• Surpasse GPT-5 Thinking et Gemini 2.5 Pro dans les catégories les plus difficiles
Ce qui rend DeepSeek Math V2 fou, ce n'est pas la précision, c'est l'architecture qui le sous-tend.
Ils n'ont pas cherché à créer des modèles plus grands ou une chaîne de pensée plus longue.
Ils ont construit un écosystème :
✓ un vérificateur dédié qui chasse les lacunes logiques
✓ un méta-vérificateur qui vérifie si le vérificateur hallucine
✓ un générateur de preuves qui apprend à craindre un raisonnement erroné
✓ et une boucle d'entraînement où le modèle continue de générer des preuves plus difficiles qui forcent le vérificateur à évoluer
Le cycle est brutal :
Générer → Vérifier → Méta-vérifier → Corriger → Répéter.
Le problème central qu'ils ont résolu : la précision de la réponse finale ne signifie rien dans la démonstration de théorèmes. Vous pouvez obtenir le bon nombre avec une logique pourrie. Ils ont donc entraîné un vérificateur à juger la preuve elle-même, pas la réponse finale.
...

Meilleurs
Classement
Favoris

