Este é um momento HISTÓRICO na IA. O Pentágono dos EUA queria um contrato de $200M para usar o Claude da Anthropic sem restrições, incluindo vigilância em massa de cidadãos americanos e armas totalmente autônomas. A Anthropic disse "NÃO" porque esses usos ultrapassam limites rígidos em segurança, ética e confiabilidade. O CEO Dario disse: "Não podemos, em boa consciência, ceder." Isso levou a uma proibição federal imediata de toda a tecnologia da Anthropic (descontinuação do DoD em 6 meses) além de rotulá-los como um "risco de cadeia de suprimentos", uma designação geralmente reservada para empresas estrangeiras adversárias. É ética da IA contra prioridades de segurança nacional.