LLMエージェントにおける自律メモリ管理 LLMエージェントはコンテキストの膨張により長期的なタスクに苦労します。 インタラクション履歴が長くなるにつれて、計算コストは爆発的に増加し、遅延は増加し、無関係な過去の誤りによる思考力は低下します。 標準的なアプローチは付録のみで、すべての思考、ツール呼び出し、応答が永久に蓄積されます。これは短い作業には有効ですが、複雑な探索では失敗が確実です。 本研究では、スライムモールド(Physarum polycephalum)に着想を得たエージェント中心のアーキテクチャ「Focus」を紹介します。生物学的な洞察:生物は迷路の中のすべての動きを完全に記録しているわけではありません。彼らは学んだ地図を保持します。 フォーカスはエージェントに2つの新しいプリミティブ、start_focusとcomplete_focusを与えます。エージェントは学習を永続的な知識ブロックに統合するタイミングを自律的に決定し、生の相互作用履歴を積極的に剪定します。外部タイマーやヒューリスティックによる圧縮強制はありません。 調査対象を宣言し、標準的なツールを使って探求し、試みたこと、学んだこと、そしてその結果をまとめてまとめます。システムはこれを永続的な知識ブロックに追加し、チェックポイントと現在のステップの間のすべてを削除します。 これにより単調に増加する文脈が鋸歯状のパターンに変換されます。探査中の成長と固結の崩壊です。 SWE-bench LiteでClaude Haiku 4.5を使った評価では、Focusは22.7%のトークン削減(1,490万トークンから1,150万トークン)を達成し、ベースラインとフォーカスの両方で60%の精度を維持しています。個別のケースでは最大57%の節約が見られました。 積極的な促しが重要です。受動的なプロンプティングはわずか6%の節約効果をもたらしました。ツール呼び出し10〜15回ごとに圧縮する明示的な指示とシステムリマインダーにより、タスクあたりの圧縮率が2.0から6.0に増加しました。 適切なツールやプロンプトがあれば、有能なモデルは自律的にコンテキストを自己調整でき、タスクパフォーマンスを犠牲にすることなくコスト意識型エージェントシステムの道を開くことができます。 論文: 私たちのアカデミーで効果的なAIエージェントの構築方法を学びましょう: