トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AIエンジニアリングの95%はコンテキストエンジニアリングです。
みんなより良いモデルに夢中ですが、文脈が本当のボトルネックです。
世界最高のモデルでも、間違った情報を渡すとゴミのようなものを返してくれます。
多くの人が見落としがちなのは以下の通りです:
コンテキストエンジニアリングは単にRAGやメモリ、エージェントだけの話ではありません。それは、適切な情報を適切な形式で、適切なタイミングでLLMに届けるという技術であり科学的な技術です。
実際に何が必要かを考えてみてください:
↳ 関連文書を取得するための取得
↳ 会話を追跡するための短期記憶
↳ ユーザーの好みを記憶するための長期記憶
↳ すべてを仕切るエージェントたち
↳ 機能を拡張するためのツール
つまり、5つの異なるシステムを構築し、接続し、維持しなければならないということです。
最近Pixeltableを使って構築をしていて、この問題に対する興味深いアプローチだと感じています。オープンソースで、コンテキストエンジニアリングを統一されたデータ問題として扱っています:
考え方はシンプルです。ベクターデータベース、SQLデータベース、組み込みサービス、エージェントフレームワークをつなぎ合わせる代わりに、すべてが一つのシステムに存在するのです。
ドキュメント、埋め込み、会話履歴、エージェントの出力はすべて単なる表です。埋め込みは自動で更新される計算された列です。ベクトル検索は通常のデータ操作と並行して機能します。
私が役立つと感じること:
↳ 別々のデータベースを管理しないRAGパイプライン
↳ 歴史的会話を巡るベクトルサーチによる長期記憶...

トップ
ランキング
お気に入り
