Dica de Vida de Programador Sinto-me um pouco culpado por usar esta, mas que se lixe. Quando peço aos agentes para fazer um loop de comparação/revisão massivo, que normalmente surge quando tenho um plano de markdown massivo e recebo um feedback elaborado sobre ele do GPT Pro na aplicação web, e depois mostro ainda ao GPT Pro o feedback do mesmo prompt mostrado ao Opus4.5, Gemini3 com DeepThink, e Grok4 Heavy (todos usando as aplicações web), até mesmo o Codex com o GPT 5.2 alto vai perder um monte de coisas na primeira vez que tenta integrar todas as revisões. Se você disser para encontrar "todos" os problemas, porque não sabe quantos perdeu, tende a continuar até encontrar muitos deles. Se você disser para ir até encontrar pelo menos 20 deles, geralmente voltará depois de encontrar 23 problemas/incompatibilidades. Isto, claro, assume que HÁ problemas, mas eles basicamente sempre existem quando os planos têm mais de 5k linhas e as revisões têm mais de 2k linhas. De qualquer forma, a solução é mentir para eles e dar um número enorme, e então eles continuam até descobrirem todos: "Faça isso novamente, e na verdade seja super super cuidadoso: pode por favor verificar o plano novamente e compará-lo com todo aquele feedback que lhe dei? Estou positivo de que você perdeu ou estragou pelo menos 80 elementos daquele feedback complexo"