自律的なエージェントは実験からインフラへと移行しています。 暗号認証がエージェントの行動をどのように安全にできるかを探るために、@Kassai_aiと提携できることを楽しみにしています。 これは、単なる実行可能ではなく、エージェントのアクションを証明可能にすることについてです: 🧵
2/ カッサイはエッジで動作する分散推論ネットワークを構築しています。 計算を中央集権型データセンターに集中させる代わりに、Kassaiは休止状態の消費者用GPUを活性化し、エージェントシステム向けのグローバル分散型低遅延実行層を形成します。 この設計は、レジリエンス、コスト効率、主権を最優先にしています。
3/ エージェントAIは単発推論とは根本的に異なります。 エージェントは計画、ツール呼び出し、モデル呼び出し、メッセージ交換、システム間の下流効果のトリガーを行います。 これらの行動が不透明であれば、失敗は見えず、責任は消えてしまいます。
4/ ラグランジュはこのギャップを埋めるために、実行時に検証を追加します。 DeepProveを用いることで、エージェントのアクションは、内部の論理や機密データを明かさずに、動作が認可されたロジックと有効な入力に従っていることを確認するゼロ知識証明を出力できます。 その結果は推測ではなく証拠です。
5/ これにより、分散インフラ上で動作するエージェントのための検証可能な実行パイプラインが作成されます: ・意思決定 • ツール呼び出し ・モデル推論 ・州の最新情報 ・対外活動 各ステップは他のエージェント、アプリケーション、または強制ロジックによって独立して検証可能です。
6/ このモデルでは、信頼はもはやエージェントやその動作するハードウェアに置かれません。正しい行動を証明する暗号学的な証拠に信頼が置かれます。 カッサイは処刑布を提供します。 ラグランジュはその実行を説明責任を持つ証明層を提供します。
7/ 主体システムが経済活動、統治、現実世界の運営を調整し始めると、検証は必須となります。 大規模な自律性には証明が必要です。 これがラグランジュとカッサイが目指している方向です。
43