AIエージェントを作る上で最も難しいのは、記憶力を教えることではありません。 忘れることを教えているのです。 私の同僚であり非常に才能あるライター@helloiamleonie、私が見た中で最も包括的なエージェント記憶の分析を発表しました。信じてください、私たち全員がこれを必要としていました。 核心的な課題はこうです:LLMはステートレスです。すべての会話が新たなスタートです。彼らは5分前にあなたが何を言ったか、ましてや先週何を言ったか覚えていません。では、どうやって実際に記憶を覚えているエージェントを作るのでしょうか? 基本的なメモリタイプは2つあります: • 短期記憶:LLMのコンテキストウィンドウ内の情報(現在の会話) • 長期記憶:外部に保存された情報(過去の会話、ユーザーの好み、学習した事実) しかし、ここからが面白く、そして混乱を招くところです。異なるフレームワークはメモリを異なる方法で分類します。例えば: CoALAのアプローチ(人間の認知に触発された): ・作業記憶(現在の会話) ・意味記憶(使用者に関する事実) ・エピソード記憶(過去の経験と行動) ・手続き的記憶(命令と振る舞い) レッタのアプローチ(アーキテクチャ重視): ・メッセージバッファ(最近のメッセージ) • コアメモリ(アクティブ管理のコンテキスト内ブロック) ・記憶を想起(生の会話履歴) ・アーカイブメモリ(明示的に保存された知識) 一番難しいのは?忘れて。 メモリに何を入力するかの管理は非常に複雑です。削除されるものを管理するのはさらに難しいです。何が時代遅れかをどうやって自動化するのですか?古い情報が本当に時代遅れで、文脈的にまだ重要であるのはいつでしょうか?ここで多くの実装が苦戦します。 Leonieは、作業記憶、セマンティック記憶、エピソード記憶、手続き記憶など様々なタイプから、実用的な実装戦略、そしてmem0、Letta、zepといった成長するメモリフレームワークのエコシステムまで、あらゆる内容をカバーしています。...