RAGは終わりではなく、AIエージェントの記憶こそが未来の方向性です。 この進化の過程を最も簡単に分解しましょう: RAG(2020-2023年): - 一度の検索で情報を取得し、応答を生成する - 決断はなく、ただ救出と答えだけだ - 問題:無関係な情報がしばしば抽出される エージェントRAG: - 代理人が捜索が必要かどうかを判断します - エージェントがクエリするデータソースを選ぶ - エージェントが結果が有用であることを検証する - 問題:依然として読み取り専用で、相互作用から学習できない AIメモリ: - 外部知識の読み書き - 過去の会話から学ぶ - ユーザーの好みや歴史的背景を念頭に置く - 真のパーソナライズを実現する このメンタルモデルはシンプルです: ↳ RAG:読み取り専用、一度だけ ↳ Agentic RAG:ツール呼び出しによる読み取り専用 ↳ エージェントメモリ:ツール呼び出しによる読み書きを可能にします エージェント記憶の力は、ユーザーの好み、過去の会話、重要な日付など、すべてを「記憶」できるようになり、これらすべてを将来のやり取りのために保存できることです。 これによりさらに大きな可能性が開かれます。それは継続的な学習です。 訓練期間に固定されるのではなく、エージェントは各やり取りから知識を構築し、再訓練なしで時間とともに向上させることができます。 メモリは静的モデルと真に適応型AIシステムの橋渡しです。 もちろん、すべてが順風満帆だったわけではありません。 メモリはRAGがこれまで経験したことのない課題をもたらします。記憶の損傷、忘れるものの決定、複数のメモリタイプ(手続き型、エピソード型、意味的)の管理です。 これらの問題を一から直すのは難しいです。 エージェントに人間のような記憶を与えたいなら、リアルタイムの知識グラフ構築のためのオープンソースフレームワークGraphitiをチェックしてみてください。 リンクは次のツイートに載せて!
内容は、@akshay_pachaarの素晴らしいシェアから翻訳されました
Akshay 🚀
Akshay 🚀11時間前
RAGは最終目標ではありませんでした。 AIエージェントのメモリは、すべての方向性です。この進化をできるだけ簡単に説明しましょう。 RAG(2020-2023年): - 情報を一度取得し、応答を生成する - 意思決定はせず、ただ取ってきて答えるだけ - 問題:しばしば無関係な文脈を取得する エージェントRAG: - エージェントが回収が必要かどうかを判断する - エージェントがクエリする*ソース*を選ぶ - エージェントは*結果が有用かどうか*検証します - 問題:依然として読み取り専用で、相互作用から学習できない AIメモリ: - 外部知識を読み書きすること - 過去の会話から学ぶ - ユーザーの好みを記憶する、過去の文脈 - 真のパーソナライズを可能にします メンタルモデルはシンプルです: ↳ RAG:読み取り専用、ワンショット ↳ Agentic RAG:ツール呼び出しによる読み取り専用 ↳ エージェントメモリ:ツール呼び出しによる読み書き エージェントメモリの強力な理由は以下の通りです: エージェントはユーザーの好み、過去の会話、重要な日付など、さまざまなことを「覚えている」ことができます。すべて保存され、将来の交流のために取り出せる。 これにより、より大きなものが解放されます。それは継続的な学びです。 訓練時間に止まるのではなく、エージェントはすべてのやり取りから知識を蓄積できるようになりました。再訓練なしで時間をかけて上達します。 メモリは静的モデルと真に適応型AIシステムの橋渡しです。 しかし、すべてが順風満帆というわけではありません。 メモリはRAGが経験しなかった新たな課題をもたらします。記憶破損、何を忘れるかの判断、複数のメモリタイプ(手続き型、エピソード型、セマンティック)の管理です。 これらの問題を一から解決するのは難しいです。エージェントに人間のような記憶を与えたいなら、リアルタイム知識グラフ構築のためのオープンソースフレームワークGraphitiをチェックしてみてください。 リンクは次のツイートでご覧いただけます!
2.23K