🚨 A DeepSeek acabou de fazer algo louco. Eles construíram um modelo matemático que não apenas resolve problemas, ele verifica suas próprias provas, se critica, corrige a lógica e tenta novamente até não encontrar nenhuma falha. Essa última parte é o avanço, um modelo que pode verificar seu próprio raciocínio antes de você verificá-lo. E os resultados são ridículos: • Desempenho de nível Ouro na IMO 2025 • Desempenho de nível ouro no CMO 2024 • 118/120 no Putnam 2024 quase perfeito, superando todas as pontuações humanas • Supera GPT-5 Thinking e Gemini 2.5 Pro nas categorias mais difíceis O que torna o DeepSeek Math V2 louco não é a precisão, é a arquitetura por trás dele. Eles não perseguiam modelos maiores ou uma cadeia de pensamento mais longa. Eles construíram um ecossistema: ✓ um verificador dedicado que procura lacunas lógicas ✓ um meta-verificador que verifica se o verificador está alucinando ✓ um gerador de provas que aprende a temer o raciocínio ruim ✓ e um ciclo de treinamento onde o modelo continua gerando provas mais difíceis que forçam o verificador a evoluir O ciclo é brutal: Gerar → verificar → meta-verificar → corrigir → repetir. O problema central que eles resolveram: a precisão da resposta final não significa nada na prova de teoremas. Você pode conseguir o número certo com lógica ruim. Então treinaram um verificador para julgar a prova em si, não a resposta final. ...