技術規制ではいつものように、多くのAI法案や草案はすでに時代遅れで技術に遅れをとっていると思います。数年前の仮定が経路依存関係を生み出し、そこから逸脱しにくいものになっています。今日のAIの多くの進歩は、トレーニング後の段階、足場構築、ツールの使用、推論計算のスケーリングから生まれています。つまり、モデルが年々改善されても、実際に可能な領域の最前線を押し広げるのはラボだけでなく、多くの企業がモデルを革新しているのです。さらに、フィルターや分類器、監視機構などの多くの緩和策はモデル自体ではなくソフトウェアの足場に適用されるため、モデルレベルでの被害軽減を期待する法的提案はあまり効果的ではありません。数年前には偏見を持ってこの点に気づき、今では多くの懸念とともに再び認識されています。 私にとってこれらの動きは、(a)まず、既存の法律や過失が不十分であることを示す責任があるべきであることを裏付けています。これは非常に少ないことです。(b) そうでなくギャップが存在する場合、複雑な関係者の連鎖が適切な緩和策や介入を交渉できる結果ベースの規制の方が良い;(c) これにはドメインの専門知識が必要であり、既存の分野固有の法律や規範などを考慮する必要があります。つまり、抽象的な水平要件ではなく、(d) モデルの重みの安全性、買い手の注意点となる評価、基本的な透明性要件はモデルレベルでも意味を持つ場合があります。(e) AIが自社の分野でどのように活用されているかを十分に理解している有能な規制当局が必要です。 しかし、モデルを微調整しても攻撃的なサイバーセキュリティ脅威やAIによる詐欺を『軽減』することはできません。エンティティベースのアプローチもこれらの問題を解決せず、リスク(および関連する緩和策)をEUスタイルの数名に絞り込めると仮定するだけです。問題は、適切な解決策が特に魅力的ではなく、「あらゆるリスクを一度の大規模介入で対処した」という満足感を伴わないことです。そして、この方法で進めるには、多くの分野での過剰規制や、サイバー、バイオ、脅威モデルによって異なる分野の規制不足という現実に直面する必要があるということです。