Att upprepa din prompt kan göra LLM:er betydligt mer exakta. Google visade precis en trivial förändring som vinner 47 av 70 tester. Inga extra tokens. Ingen extra latens. Inga förluster rapporterade. Snabb upprepning förbättrar noggrannheten Metoden är enkel. Skicka exakt samma inmatning två gånger, efter varandra. Språkmodeller läser tokens i ordning. Tidiga delar bearbetas utan fullständig kontext. Vid andra genomgången finns redan hela bilden. Förutsägelser blir mer stabila och mer exakta. Det fungerar över stora modeller Artikeln testar populära system i stor skala. Varje utvärderad modell förbättras utan att resonemang är aktiverat. Viktiga resultat: > 47 vinster av 70 riktmärken > Nollnoggrannhetsregressioner > Ingen ökning av utgångslängden > Ingen mätbar latenskostnad Det möjliggör drop-in-utplacering Utgångarna behåller samma format. Befintliga pipelines förblir oförändrade. Du får högre noggrannhet genom att kopiera och klistra in en gång.