Repetarea promptului poate face LLM-urile mult mai precise. Google tocmai a arătat o schimbare trivială care câștigă 47 din 70 de teste. Fără jetoane suplimentare. Fără latență suplimentară. Nicio pierdere raportată. Repetiția promptă îmbunătățește acuratețea Metoda este simplă. Trimite exact aceeași intrare de două ori, una după alta. Modelele de limbaj citesc jetoanele în ordine. Piesele timpurii sunt procesate fără context complet. La a doua trecere, imaginea completă există deja. Predicțiile devin mai stabile și mai precise. Funcționează pe mai multe modele majore Lucrarea testează sisteme populare la scară largă. Fiecare model evaluat se îmbunătățește fără a activa raționamentul. Rezultate cheie: > 47 de victorii din 70 de repere > Regresii de acuratețe zero > Nicio creștere a lungimii de ieșire > Fără cost măsurabil de latență Permite implementarea directă Rezultatele păstrează același format. Conductele existente rămân neschimbate. Obții o precizie mai mare copiind și lipind o dată.