Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ich habe einen ähnlichen Generator-Verifier-Ansatz für die Verwendung von Modellen in der theoretischen Physikforschung übernommen.
Menschliche Experten an der Spitze der Wissenschaft können Verifier-Modelle so weit verbessern, dass der autonome Betrieb selbst bei realen Forschungsproblemen (nicht nur bei konstruierten Mathematikwettbewerbsproblemen = gut gestellten Problemen, die von Menschen in endlicher Zeit gelöst werden können) extrem stark ist.
DeepSeekMathV2
Synergie zwischen Generator und Verifier
Der Beweisgenerator und der Verifier bilden eine sich selbst verbessernde Rückkopplungsschleife. Während der Generator zunehmend komplexere Beweise produziert, stellen diese den Verifier auf die Probe und decken Schwächen auf, die zu neuen Trainingsdaten werden. Zunächst leiteten menschliche Experten das Retraining des Verifiers, indem sie die markierten Probleme überprüften – ein Prozess, der durch die Generierung mehrerer Verifizierungsversuche pro Beweis effizient gestaltet wurde. Diese „Meta-Verifizierung“ (Überprüfung der Ergebnisse des Verifiers anstelle der Beweise direkt) erwies sich sowohl für Menschen als auch für LLMs als einfacher und besser erlernbar.
Durch die Skalierung der Anzahl der Verifier-Analysen und das Training an diesen KI-unterstützten Anmerkungen erreichte der Verifier schließlich ein Maß an Zuverlässigkeit, bei dem menschliches Eingreifen in den letzten Durchläufen nicht mehr erforderlich war – und schloss damit die Schleife zwischen automatisierter Beweisgenerierung und Verifizierung.

28. Nov. 2025
Wow! DeepSeekMath-V2
Generator-Verifier architecture again!
... Towards self-verifiable mathematical reasoning, we investigate how to train an accurate and faithful LLM-based verifier for theorem proving. We then train a proof generator using the verifier as the reward model, and incentivize the generator to identify and resolve as many issues as possible in their own proofs before finalizing them. To maintain the generation-verification gap as the generator becomes stronger, we propose to scale verification compute to automatically label new hard-to-verify proofs, creating training data to further improve the verifier. Our resulting model, DeepSeekMath-V2, demonstrates strong theorem-proving capabilities, achieving gold-level scores on IMO 2025 and CMO 2024 and a near-perfect 118/120 on Putnam 2024 with scaled test-time compute. While much work remains, these results suggest that self-verifiable mathematical reasoning is a feasible research direction that may help develop more capable mathematical AI systems.

Dies beschreibt den Übergang von einer grundlegenden Generator-Verifier-Pipeline, die mit handelsüblichen Modellen arbeitet, zu einer, in der der Verifier selbst durch menschliche Expertendaten, die in der Meta-Überprüfung verwendet werden, verbessert wurde.

5,6K
Top
Ranking
Favoriten
