「再帰的言語モデル」 MITの研究者による2026年のLLMにとって大きな方向性の可能性があります 彼らのアプローチでは、プロンプトは直接「実行」されるのではなく、外部のPython REPLに変数として保存され、言語モデルがその長い文字列を検査・スライス・分解するコードを書き、実行出力を観察し、関連するスニペットだけに再帰的にLLMを呼び出すサブタスクを構築します。再帰過程が終わったときに結果をつなぎ合わせます。 そのため、10M+トークンタスクを「コンテキストロット」がはるかに少なく、しばしば低コストで要約やRAGよりも解決でき、長いコンテキストスケーリングを単なる大きなコンテキストウィンドウではなく推論時間アルゴリズムに変えています。