Uma das exclusões ao uso de AI é sutilmente diferente entre as comunicações da OpenAI e da Anthropic. Sam: "responsabilidade humana pelo uso da força, incluindo sistemas de armas autónomas." O PR da Anthropic apenas diz "armas totalmente autónomas."
Sam Altman
Sam Altman28/02/2026
Esta noite, chegámos a um acordo com o Departamento de Guerra para implementar os nossos modelos na sua rede classificada. Em todas as nossas interações, o DoW demonstrou um profundo respeito pela segurança e um desejo de colaborar para alcançar o melhor resultado possível. A segurança da IA e a ampla distribuição de benefícios são o núcleo da nossa missão. Dois dos nossos princípios de segurança mais importantes são as proibições sobre vigilância em massa doméstica e a responsabilidade humana pelo uso da força, incluindo sistemas de armas autónomas. O DoW concorda com estes princípios, reflete-os na lei e na política, e nós incluímo-los no nosso acordo. Também iremos construir salvaguardas técnicas para garantir que os nossos modelos se comportem como devem, o que o DoW também desejava. Iremos implementar FDEs para ajudar com os nossos modelos e garantir a sua segurança, iremos implementar apenas em redes de nuvem. Estamos a pedir ao DoW que ofereça estes mesmos termos a todas as empresas de IA, que, na nossa opinião, todos deveriam estar dispostos a aceitar. Expressámos o nosso forte desejo de ver as coisas desescalarem para longe de ações legais e governamentais e em direção a acordos razoáveis. Mantemo-nos comprometidos em servir toda a humanidade da melhor forma possível. O mundo é um lugar complicado, confuso e, por vezes, perigoso.
Tomando a mensagem de Sam ao pé da letra, isso poderia significar que o DoW pode usar os modelos da OpenAI em armas totalmente autónomas, desde que haja uma consideração suficiente sobre a "responsabilidade humana".
438