AIエンジニアリングの95%はコンテキストエンジニアリングです。 みんなより良いモデルに夢中ですが、文脈が本当のボトルネックです。 世界最高のモデルでも、間違った情報を渡すとゴミのようなものを返してくれます。 多くの人が見落としがちなのは以下の通りです: コンテキストエンジニアリングは単にRAGやメモリ、エージェントだけの話ではありません。それは、適切な情報を適切な形式で、適切なタイミングでLLMに届けるという技術であり科学的な技術です。 実際に何が必要かを考えてみてください: ↳ 関連文書を取得するための取得 ↳ 会話を追跡するための短期記憶 ↳ ユーザーの好みを記憶するための長期記憶 ↳ すべてを仕切るエージェントたち ↳ 機能を拡張するためのツール つまり、5つの異なるシステムを構築し、接続し、維持しなければならないということです。 最近Pixeltableを使って構築をしていて、この問題に対する興味深いアプローチだと感じています。オープンソースで、コンテキストエンジニアリングを統一されたデータ問題として扱っています: 考え方はシンプルです。ベクターデータベース、SQLデータベース、組み込みサービス、エージェントフレームワークをつなぎ合わせる代わりに、すべてが一つのシステムに存在するのです。 ドキュメント、埋め込み、会話履歴、エージェントの出力はすべて単なる表です。埋め込みは自動で更新される計算された列です。ベクトル検索は通常のデータ操作と並行して機能します。 私が役立つと感じること: ↳ 別々のデータベースを管理しないRAGパイプライン ↳ 歴史的会話を巡るベクトルサーチによる長期記憶...