🧵 1/ AIは至る所にいます。でも、本当にその訓練方法を信頼できるのでしょうか? AIモデルはデータから学習します。しかし、そのデータが機密であることもあります(医療記録、財務履歴、個人メッセージなど)。 そこで企業は「Federated Learning」という手法を用いています。つまり、データはデバイスから出ることはありません。共有されるのは「教訓」だけです。 プライバシーは守られます。 しかし、ここに問題があります。
2/ データがローカルに留まっているからといって、プロセス中の全員が正直に行動しているとは限りません。 もし誰かが訓練中にAIを操作したらどうなる? 結果が改ざんされたらどうする? もし誰かが何も貢献せずに無償乗りをしていたらどうなるのでしょうか? 信頼は前提とされています。しかし証明されたことはありません。
3/ その考え方は?ただ信じるだけでなく、確認してください。 暗号学的証明を用いることで、AI訓練プロセスのあらゆる段階を検証できるようになりました。 誰がどのデータを使ったのか。訓練が正しく行われていたかどうか。結果が正直に組み合わされたかどうか。 盲目的な信頼は必要ありません。
4/ AIの結果がどのように結合されるか(「集約」)の検証はすでに実現可能であり、協働AIにおける最大のセキュリティギャップのいくつかを埋めています。 完全なトレーニング検証が間もなく行われます。まだその段階には達していませんが、研究は急速に進んでいます。
5/ ブロックチェーンは公開された改ざん防止監査ログとして機能します。 zkVerify @zkvprotocolを使えば、その証明の検証費用はわずか0.0003ドル程度です。それはタイプミスではありません。
69