🦔 Pentagon berencana untuk membiarkan perusahaan AI melatih model pada data rahasia, menurut MIT Technology Review. Saat ini, model seperti Claude digunakan dalam pengaturan rahasia untuk menjawab pertanyaan, termasuk menganalisis target di Iran, tetapi mereka tidak belajar dari data tersebut. Pelatihan akan mengubah itu. Seorang mantan pemimpin kebijakan AI di Google dan OpenAI mengatakan kepada MIT bahwa risiko terbesar adalah informasi rahasia yang muncul kembali ke pengguna yang seharusnya tidak memiliki akses, karena departemen militer yang berbeda dengan tingkat izin yang berbeda akan berbagi AI yang sama. Pendapat Saya Saya pikir masalah kompartementalisasi adalah yang harus diperhatikan di sini. Informasi rahasia dipisahkan karena suatu alasan, dengan program yang berbeda, izin yang berbeda, dan persyaratan kebutuhan yang berbeda. Jika Anda melatih model pada data dari beberapa kompartemen, model tidak memahami batas-batas tersebut dan hanya memiliki informasi. Saya kurang khawatir tentang kebocoran data rahasia ke internet publik karena infrastruktur ada untuk mencegahnya. Yang membuat saya khawatir adalah model yang dilatih pada intelijen sinyal, kecerdasan manusia, dan perencanaan operasional sekaligus mulai menghubungkan titik-titik di seluruh kompartemen dengan cara yang melanggar seluruh poin kompartementalisasi. Ini juga terjadi saat Pentagon berlomba untuk menjadi "kekuatan perang AI-pertama" selama konflik Iran yang meningkat, yang menciptakan tekanan untuk bergerak cepat. Bergerak cepat pada sistem AI yang menangani data rahasia adalah cara Anda mendapatkan kegagalan yang tidak muncul sampai menjadi bencana. Pejabat pertahanan mengatakan mereka akan mengevaluasi akurasi pada data yang tidak diklasifikasikan terlebih dahulu, yang merupakan naluri yang tepat, tetapi saya ingin tahu berapa lama periode evaluasi itu berlangsung sebelum tekanan untuk mengerahkan menang. Hedgie🤗