İsteğinizi tekrarlamak LLM'leri önemli ölçüde daha doğru hale getirebilir. Google az önce 70 testin 47'sini kazanan önemsiz bir değişiklik gösterdi. Ekstra jeton yok. Ek gecikme yok. Sıfır kayıp bildirildi. Hızlı tekrar, doğruluğu artırır Yöntem basit. Aynı girdiyi iki kez, arka arkaya gönderin. Dil modelleri tokenları sırayla okur. İlk bölümler tam bağlam olmadan işlenir. İkinci geçişte tam resim zaten var. Tahminler daha istikrarlı ve daha doğru hale gelir. Büyük modellerde de çalışıyor Makale, popüler sistemleri ölçekli olarak test ediyor. Her değerlendirilen model, akıl yürütme etkinleştirilmeden gelişir. Önemli sonuçlar: > 70 benchmark üzerinden 47 galibiyet > Sıfır doğruluk regresyonları > Çıkış uzunluğunda artış yok > Ölçülebilir gecikme maliyeti yok Doğrudan dağıtıma izin verir Çıkışlar aynı formatı koruyor. Mevcut boru hatları değişmeden kalıyor. Bir kez kopyalayıp yapıştırarak daha yüksek doğruluk elde edersiniz.