プロンプトを繰り返すことで、LLMの精度が大幅に向上します。 Googleは70回中47回のテストで勝つ些細な変更を示しました。 余分なトークンは使いません。追加の遅延はありません。損失はゼロでした。 プロンプトの繰り返しは精度を向上させます 方法はシンプルです。まったく同じ入力を2回連続で送る。 言語モデルはトークンを順番に読みます。 初期の部分は完全な文脈なしに処理されます。 2回目の検査では、全体像がすでに存在しています。 予測はより安定し、正確になります。 主要なモデルで機能します この論文は、人気のあるシステムを大規模にテストしています。 評価されたすべてのモデルは、推論がなくても改善されます。 主な結果: >70ベンチマーク中47勝 > ゼロ精度回帰 > 出力長の延長なし > 測定可能な遅延コストなし ドロップイン展開を可能にします 出力は同じフォーマットを維持します。既存のパイプラインは変更されていません。 一度コピー&ペーストした方が精度が上がります。