🦔 MIT Technology Review'e göre, Pentagon, yapay zeka şirketlerinin modelleri gizli veriler üzerinde eğitmesine izin vermeyi planlıyor. Şu anda Claude gibi modeller, İran'daki hedefleri analiz etmek de dahil olmak üzere, gizli ortamlarda soruları yanıtlamak için kullanılıyor, ancak verilerden ders çıkaramıyorlar. Eğitim bunu değiştirecekti. Google ve OpenAI'de eski bir yapay zeka politika lideri, MIT'e en büyük riskin, farklı askeri departmanların aynı yapay zekayı paylaşması nedeniyle, erişimi olmaması gereken kullanıcılara gizli bilgilerin yeniden sunulması olduğunu söyledi. Benim görüşüm Bence burada izlenmesi gereken bölümlendirme sorunu. Gizli bilgiler bir sebepten dolayı izole edilir; farklı programlar, farklı izinler ve farklı bilmesi gereken gereksinimler vardır. Bir modeli birden fazla bölmeden gelen verilerle eğitiyorsanız, model bu sınırları anlamaz ve sadece bilgiye sahiptir. Gizli verilerin kamu internetine sızmasından daha az endişeliyim çünkü bunu önlemek için altyapı var. Beni endişelendiren, sinyal istihbaratı ve operasyonel planlama üzerine eğitilmiş, aynı anda bölümler arasında noktaları birleştirmeye başlayan bir model, bölümlendirme amacını ihlal eden şekillerde noktaları birleştirmeye başlaması. Bu aynı zamanda Pentagon'un İran çatışmasının tırmandığı sırada "yapay zeka öncelikli bir savaş gücü" olmaya çalışırken gerçekleşiyor ve bu da hızlı hareket etme baskısı yaratıyor. Gizli verileri işleyen yapay zeka sistemlerinde hızlı ilerlemek, felaket olmadıkça ortaya çıkan başarısızlıkların ortaya çıkmasını sağlar. Savunma yetkilisi, önce gizli olmayan verilerin doğruluğunu değerlendireceklerini söyledi, ki bu doğru içgüdü, ama bu değerlendirme süresinin konuşlandırma baskısının galip gelmesinden önce ne kadar süreceğini bilmek isterim. Hedgie🤗