A DeepSeek acaba de realizar o tipo de atualização que todos os modelos de raciocínio têm fingido ter. Em vez de despejar uma longa cadeia de raciocínio e esperar que faça sentido, o DeepSeek Math V2 realiza uma interrogatório completo sobre sua própria lógica. Ele constrói uma prova, ataca-a, verifica o ataque, verifica o verificador, corrige as falhas e repete até que não consiga mais se quebrar. Essa única ideia mudou completamente seu desempenho. Aqui está o que esse nível de autoanálise produziu: • Desempenho de nível ouro no IMO 2025 • Desempenho de nível ouro no CMO 2024 • 118/120 no Putnam 2024, a maior pontuação reportada • Resultados melhores do que o GPT-5 Thinking e o Gemini 2.5 Pro nas categorias mais difíceis O segredo não é a escala. É a arquitetura em torno do modelo: — um verificador que caça lacunas lógicas — um meta-verificador que questiona o verificador — um gerador de provas condicionado a evitar raciocínios fracos — um loop que força cada parte do sistema a se tornar mais afiada O processo funciona como um moedor: - Produzir uma prova - Testá-la - Testar o testador - Reparar o raciocínio - Repetir Eles miraram no verdadeiro problema do raciocínio matemático: um modelo pode chegar à resposta certa pelas razões erradas. Assim, a DeepSeek treinou um verificador que pontua o raciocínio, não os resultados....