🚨 A DeepSeek acabou de fazer algo incrível. Eles construíram um modelo matemático que não apenas resolve problemas, mas verifica suas próprias provas, critica a si mesmo, corrige a lógica e tenta novamente até não conseguir encontrar um único erro. Essa parte final é a grande inovação: um modelo que pode verificar seu próprio raciocínio antes que você o verifique. E os resultados são ridículos: • Desempenho de nível ouro no IMO 2025 • Desempenho de nível ouro no CMO 2024 • 118/120 no Putnam 2024, quase perfeito, superando todas as pontuações humanas • Supera o GPT-5 Thinking e o Gemini 2.5 Pro nas categorias mais difíceis O que torna o DeepSeek Math V2 incrível não é a precisão, mas a arquitetura por trás dele. Eles não perseguiram modelos maiores ou cadeias de raciocínio mais longas. Eles construíram um ecossistema: ✓ um verificador dedicado que procura lacunas lógicas ✓ um meta-verificador que checa se o verificador está alucinado ✓ um gerador de provas que aprende a temer raciocínios ruins ✓ e um ciclo de treinamento onde o modelo continua gerando provas mais difíceis que forçam o verificador a evoluir O ciclo é brutal: Gerar → Verificar → Meta-verificar → Corrigir → Repetir. A questão central que eles resolveram: a precisão da resposta final não significa nada na prova de teoremas. Você pode obter o número certo com uma lógica ruim. Então, eles treinaram um verificador para julgar a prova em si, não a resposta final. ...