Repetir o seu prompt pode tornar os LLMs significativamente mais precisos. O Google acabou de mostrar uma mudança trivial que ganha 47 de 70 testes. Sem tokens extras. Sem latência adicional. Zero perdas relatadas. 𝗥𝗲𝗽𝗲𝘁𝗶ç𝗮𝗼 𝗱𝗼 𝗽𝗿𝗼𝗺𝗽𝘁 𝗶𝗺𝗽𝗿𝗼𝘃𝗲 𝗮𝗰𝗰𝘂𝗿𝗮𝗰𝘆 O método é simples. Envie a mesma entrada exata duas vezes, uma após a outra. Os modelos de linguagem leem tokens em ordem. As partes iniciais são processadas sem o contexto completo. Na segunda passagem, a imagem completa já existe. As previsões tornam-se mais estáveis e mais precisas. 𝗘́ 𝗳𝗮𝗰𝗶𝗹 𝗮𝗰𝗿𝗼𝘀𝘀 𝗺𝗮𝗷𝗼𝗿𝗲𝘀 𝗺𝗼𝗱𝗲𝗹𝘀 O artigo testa sistemas populares em grande escala. Cada modelo avaliado melhora sem raciocínio ativado. Resultados chave: > 47 vitórias em 70 benchmarks > Zero regressões de precisão > Nenhum aumento no comprimento da saída > Nenhum custo de latência mensurável 𝗜𝘁 𝗮𝗹𝗼𝘄𝘀 𝗱𝗿𝗼𝗽-𝗶𝗻 𝗱𝗲𝗽𝗹𝗼𝘆𝗺𝗲𝗻𝘁 As saídas mantêm o mesmo formato. Os pipelines existentes permanecem inalterados. Você obtém maior precisão copiando e colando uma vez.