Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A DeepSeek acaba de realizar o tipo de atualização que todos os modelos de raciocínio têm fingido ter.
Em vez de despejar uma longa cadeia de raciocínio e esperar que faça sentido, o DeepSeek Math V2 realiza uma interrogatório completo sobre sua própria lógica. Ele constrói uma prova, ataca-a, verifica o ataque, verifica o verificador, corrige as falhas e repete até que não consiga mais se quebrar.
Essa única ideia mudou completamente seu desempenho.
Aqui está o que esse nível de autoanálise produziu:
• Desempenho de nível ouro no IMO 2025
• Desempenho de nível ouro no CMO 2024
• 118/120 no Putnam 2024, a maior pontuação reportada
• Resultados melhores do que o GPT-5 Thinking e o Gemini 2.5 Pro nas categorias mais difíceis
O segredo não é a escala.
É a arquitetura em torno do modelo:
— um verificador que caça lacunas lógicas
— um meta-verificador que questiona o verificador
— um gerador de provas condicionado a evitar raciocínios fracos
— um loop que força cada parte do sistema a se tornar mais afiada
O processo funciona como um moedor:
- Produzir uma prova
- Testá-la
- Testar o testador
- Reparar o raciocínio
- Repetir
Eles miraram no verdadeiro problema do raciocínio matemático: um modelo pode chegar à resposta certa pelas razões erradas. Assim, a DeepSeek treinou um verificador que pontua o raciocínio, não os resultados....

Top
Classificação
Favoritos

