最近、@inference_labsへの注目が著しく高まっています。 価格や活動のせいではなく、暗号通貨のサークルに属さない小さなサークルで頻繁に現れるようになったからです。 数日前、Inference Labsが「Entrepreneur」などのビジネスメディアで別途取り上げられているのを見かけましたが、話題はAIの強さではなく、非常に現実的な疑問です。 AIが独立して意思決定を始めたとき、誰が責任を持つのでしょうか? どうやって責任を持つか? この記事では空港などの高電圧シナリオを例に挙げています。 マルチシステム協働、ネットワークの不安定性、無人リアルタイム介入。 この場合、AIによる結論に何か問題が生じた場合、 「結果は正しい」だけではもはや不十分で、「なぜそうなったのか」を説明できなければなりません。 これが今のAIの最大の弱点に触れています: ほとんどの推論プロセスはブラックボックスです。 出力しか見えず、プロセス自体は確認できません。 AIが単にコンテンツを生成しているだけなら、大きな問題ではありません。 しかし、一度チェーンに接続され、資金を管理し、プロトコルを実行し、エージェントが自動的に取引を実行すると、 この不透明さはほとんど致命的です。 それが私がInference Labsで本当に興味深いと感じる点です。 モデルのパラメータや性能の損失を比較しているわけではありません。 代わりに、以下に焦点を当ててください: 👉 AIの推論プロセスを「検証可能で監査可能かつ説明責任のある」事実にする方法。 Bittensorエコシステムにおける彼らの最近の行動は、まさにこの段階にあります。 特にSubnet 2: DSperseの発売時が印象的です。 DSperseはシンプルに行うことです: AIの推論は「信じて」ではありません。 代わりに、すべての出力にはzk証明が付随します。 このプロセスはオンチェーンで、検証可能で改ざん防止です。 さらに重要なのは、モデルの重みが暗号化されて共有されることもあることです—— 他の人はモデルを使えますが、コアパラメータは見えません。 これは実際にモデルを作る人にとって非常に現実的な限界点です:...