Opakováním výzvy lze LLM výrazně přesněji. Google právě ukázal triviální změnu, která vyhrála 47 z 70 testů. Žádné další žetony. Žádná přidaná latence. Žádné ztráty hlášeny. Opakování promptů zlepšuje přesnost Metoda je jednoduchá. Pošlete přesně stejný vstup dvakrát, za sebou. Jazykové modely čtou tokeny v pořadí. Ranější části jsou zpracovávány bez úplného kontextu. Při druhém průchodu už existuje celý obraz. Předpovědi se stávají stabilnějšími a přesnějšími. Funguje napříč hlavními modely Článek testuje populární systémy ve velkém měřítku. Každý vyhodnocený model se zlepšuje bez možnosti uvažování. Klíčové výsledky: > 47 vítězství ze 70 benchmarků > Regrese s nulovou přesností > Žádné prodloužení délky výstupu > Žádné měřitelné náklady na latenci Umožňuje nasazení bez použití Výstupy zůstávají ve stejném formátu. Stávající potrubí zůstávají beze změny. Vyšší přesnost získáte, když to zkopírujete a vložíte jednou.