Jednym z wyłączeń dotyczących użycia AI jest subtelna różnica między komunikatami OpenAI a Anthropic. Sam: "ludzka odpowiedzialność za użycie siły, w tym za autonomiczne systemy broni." PR Anthropic po prostu mówi "w pełni autonomiczne bronie."
Sam Altman
Sam Altman28 lut 2026
Dziś wieczorem osiągnęliśmy porozumienie z Departamentem Wojny w sprawie wdrożenia naszych modeli w ich klasyfikowanej sieci. We wszystkich naszych interakcjach Departament Wojny wykazał głęboki szacunek dla bezpieczeństwa oraz chęć współpracy w celu osiągnięcia jak najlepszego wyniku. Bezpieczeństwo AI i szerokie rozprzestrzenienie korzyści są rdzeniem naszej misji. Dwa z naszych najważniejszych zasad bezpieczeństwa to zakazy dotyczące krajowej masowej inwigilacji oraz odpowiedzialność ludzka za użycie siły, w tym w przypadku autonomicznych systemów broni. Departament Wojny zgadza się z tymi zasadami, odzwierciedla je w prawie i polityce, a my wprowadziliśmy je do naszego porozumienia. Zbudujemy również techniczne zabezpieczenia, aby zapewnić, że nasze modele będą działać tak, jak powinny, co również było życzeniem Departamentu Wojny. Wdrożymy FDE, aby pomóc w naszych modelach i zapewnić ich bezpieczeństwo, będziemy wdrażać tylko w sieciach chmurowych. Prosimy Departament Wojny o zaoferowanie tych samych warunków wszystkim firmom AI, co naszym zdaniem powinno być akceptowane przez wszystkich. Wyraziliśmy nasze silne pragnienie, aby sytuacja deeskalowała w kierunku rozsądnych porozumień, a nie działań prawnych i rządowych. Pozostajemy zobowiązani do służenia całej ludzkości najlepiej, jak potrafimy. Świat jest skomplikowany, chaotyczny i czasami niebezpieczny.
Biorąc dosłownie wiadomość Sama, może to oznaczać, że DoW może używać modeli OpenAI w w pełni autonomicznych broniach, pod warunkiem, że zostanie uwzględniona "ludzka odpowiedzialność".
434