🦔 Pentagon planuje pozwolić firmom AI na trenowanie modeli na danych tajnych, według MIT Technology Review. Obecnie modele takie jak Claude są używane w tajnych ustawieniach do odpowiadania na pytania, w tym analizowania celów w Iranie, ale nie uczą się na podstawie tych danych. Szkolenie zmieniłoby to. Były lider polityki AI w Google i OpenAI powiedział MIT, że największym ryzykiem jest ujawnienie tajnych informacji użytkownikom, którzy nie powinni mieć dostępu, ponieważ różne departamenty wojskowe z różnymi poziomami uprawnień dzieliłyby tę samą AI. Moje zdanie Myślę, że problem z compartmentalizacją to ten, na który warto zwrócić uwagę. Informacje tajne są podzielone z jakiegoś powodu, z różnymi programami, różnymi uprawnieniami i różnymi wymaganiami dotyczącymi potrzeby wiedzy. Jeśli wytrenujesz model na danych z wielu kompartamentów, model nie rozumie tych granic i po prostu ma te informacje. Mniej martwi mnie wyciek danych tajnych do publicznego internetu, ponieważ istnieje infrastruktura, która temu zapobiega. Co mnie niepokoi, to model wytrenowany na wywiadzie sygnałowym, wywiadzie ludzkim i planowaniu operacyjnym jednocześnie, który zaczyna łączyć kropki między kompartamentami w sposób, który narusza cały sens compartmentalizacji. To również dzieje się, gdy Pentagon ściga się, aby stać się "siłą bojową pierwszą w AI" w czasie eskalującego konfliktu z Iranem, co stwarza presję na szybkie działanie. Szybkie działanie w systemach AI, które obsługują dane tajne, to sposób na uzyskanie awarii, które nie ujawniają się, dopóki nie są katastrofalne. Przedstawiciel obrony powiedział, że najpierw ocenią dokładność na danych nieklasyfikowanych, co jest właściwym instynktem, ale chciałbym wiedzieć, jak długo trwa ten okres oceny, zanim presja na wdrożenie weźmie górę. Hedgie🤗