LLMエージェントの効率的な生涯記憶 LLMエージェントは長い会話を処理するためにメモリが必要です。現在の扱い方は、メモリが完全なインタラクション履歴を保持して大規模な冗長性を生み出すか、反復的な推論でノイズをフィルタリングし、過剰なトークンを消費するというものです。 この新しい研究では、意味的損失なし圧縮に基づく効率的なメモリフレームワークであるSimpleMemを導入し、情報密度を最大化しトークン消費を最小限に抑えます。 このフレームワークは3段階のパイプラインを通じて動作します。 1) まず、セマンティック構造圧縮はエントロピー認識フィルタリングを適用し、生の対話をコンパクトなメモリ単位に抽出し、共参照を解決し、相対時間表現(「先週の金曜日」)を絶対タイムスタンプに変換します。 2) 第二に、再帰的記憶の統合は関連する記憶を段階的に高次の抽象化に統合し、「朝8時にラテを注文した」といった繰り返しの項目を「朝にコーヒーを定期的に飲む」といったパターンに変換します。 3) 第三に、アダプティブクエリ認識検索はクエリの複雑さに基づいて検索範囲を動的に調整します。 結果として、GPT-4.1-miniを用いたLoCoMoベンチマークでは、SimpleMemは43.24 F1を達成し、最強のベースラインMem0(34.20)を26.4%上回り、トークン消費量を1クエリあたり531トークンに削減し、フルコンテキストアプローチの16,910トークンから30倍の減少となりました。 彼らはメモリ構築がMem0の14倍速く(サンプルあたり92.6秒対1350.9秒)、A-Memより50倍速いと主張しています。SimpleMem を用いた3Bパラメータモデルでさえ、劣るメモリ戦略を用いるより大きなモデルを上回ります。 この研究は、構造化された意味圧縮と適応的検索によって、LLMエージェントがトークンに溺れたり精度を犠牲にしたりすることなく信頼性の高い長期記憶を維持できることを示しています。