今日のAIエージェント設計には根本的な緊張関係があります! そして、生産のために構築を始めて初めてそれが明らかになります: 指示を厳格に強制すればするほど、文脈的なニュアンスを犠牲にすることになります。 こう考えてみてください。 顧客対応のエージェントを構築する際には、確かに譲れない指示もあります。 したがって、エージェントには機械的に聞こえても厳格に執行してほしいのです。 例えば、金融におけるコンプライアンス開示や医療における安全警告のような指示は、いかなるミスも許されません。 しかし、他の指示は、顧客のトーンに合わせたり、回答を簡潔にしたりといった穏やかな提案です。これらは会話に影響を与えるべきであって、支配すべきではありません。 問題は、ほとんどのエージェントアーキテクチャではこの区別を簡単に表現できないことです。 すべての指示は通常同じレベルの執行を受けるため、すべてに厳しく対応してロボットのように聞こえるか、柔軟に対応して重要なルールを見逃すリスクを負うかのどちらかです。 そして、プロンプト自体で特定の指示を強調するだけではできません。なぜなら、プロンプトに指示が存在するだけでモデルの挙動に偏りが生じるからです。強調は既存の偏見の上にさらに偏りを加えるだけです。 しかし、Parlantの最新の「臨界レベル」制御(オープンソースで18,000星)は興味深いです。 これにより、各指示にどれだけ注意を払うべきかをエージェントに伝えることができます。 ``` agent.create_guideline( condition=「顧客が薬について尋ねる」、 action=「医療提供者に直接」、...