🦔 Pentagon plánuje podle MIT Technology Review umožnit AI společnostem trénovat modely na utajovaných datech. V současnosti se modely jako Claude používají v utajovaných prostředích k odpovídání na otázky, včetně analýzy cílů v Íránu, ale z dat se nic neučí. Trénink by to změnil. Bývalý vedoucí politiky AI ve společnosti Google a OpenAI řekl MIT, že největším rizikem je, že utajované informace budou znovu zveřejněny uživatelům, kteří by k nim přístup neměli mít, protože různé vojenské složky s různými úrovněmi prověrky by sdílely stejnou AI. Můj názor Myslím, že problém rozdělení je tady ten, na který je třeba dávat pozor. Utajované informace jsou oddělené z nějakého důvodu, s různými programy, různými prověrkami a různými požadavky na potřebu vědět. Pokud trénujete model na datech z více oddílů, model těmto hranicím nerozumí a má jen informace. Méně se obávám, že by se utajovaná data dostala na veřejný internet, protože infrastruktura existuje, aby tomu zabránila. Co mě znepokojuje, je model vycvičený na signální zpravodajství, lidské zpravodajství a operačním plánování najednou, který začíná propojovat body napříč odděleními způsoby, které porušují celý smysl rozdělení do oddělení. To se děje také v době, kdy Pentagon závodí stát se "bojovou silou zaměřenou na AI" během eskalujícího íránského konfliktu, což vytváří tlak na rychlé postupy. Rychlý postup u AI systémů, které zpracovávají utajovaná data, je způsob, jak vznikají selhání, která se neprojeví, dokud nejsou katastrofální. Obranný úředník řekl, že nejdříve vyhodnotí přesnost na neklasifikovaných datech, což je správný instinkt, ale chtěl bych vědět, jak dlouho toto hodnocení trvá, než tlak na nasazení zvítězí. Ježek🤗