🦔 MITテクノロジーレビューによると、ペンタゴンはAI企業が機密データに基づくモデルの訓練を許可する計画です。現在、Claudeのようなモデルは機密現場で質問に答えるために使われており、イランの標的分析も含まれますが、データから学ぶことはできません。訓練がそれを変えるだろう。GoogleとOpenAIの元AI政策責任者はMITに対し、最大のリスクはアクセスすべきでない機密情報が再流されることだと述べました。なぜなら、異なる軍事部門が異なるクリアランスレベルを持つ場合、同じAIを共有するためです。 私の見解 ここで注目すべきは区分けの問題だと思います。機密情報が分断されているのは理由があり、異なるプログラム、異なるクリアランス、異なる知る必要性要件があります。複数の区画からのデータでモデルを訓練すると、モデルはその境界を理解せず、情報だけを持っています。機密データが公共のインターネットに漏れることについては、それを防ぐインフラが整っているのであまり心配していません。私が懸念しているのは、信号情報、人的情報、作戦計画を同時に訓練したモデルが、区画化の本質を損なう形で区画間の点をつなげ始めることです。 これは、イラン紛争が激化する中でペンタゴンが「AI優先の戦闘部隊」になるために急いでいる中で起きており、迅速な対応を求める圧力が生じています。機密データを扱うAIシステムを迅速に動かすことで、壊滅的な失敗が起こります。防衛当局者は、まず非機密データの正確性を評価すると言っており、それは正しい判断ですが、配備圧力が勝るまで評価期間がどれくらい続くのか知りたいです。 ヘッジー🤗