Este é um momento HISTÓRICO na IA. O Pentágono dos EUA queria um acordo de 200 milhões de dólares para usar o Claude da Anthropic sem nenhuma restrição, incluindo vigilância em massa de cidadãos americanos e armas totalmente autônomas. A Anthropic disse "NÃO" porque esses usos ultrapassam linhas rígidas em segurança, ética e confiabilidade. O CEO Dario disse: "Não podemos aceitar em boa consciência." Isso levou a uma proibição federal imediata de toda tecnologia Anthropic (eliminação gradual do DoD por 6 meses), além de rotulá-las como "risco da cadeia de suprimentos", uma designação geralmente reservada para empresas estrangeiras adversárias. É ética em IA versus prioridades de segurança nacional.