これはAIの歴史的な瞬間です。 米国国防総省は、米国市民の大規模監視や完全自律型兵器を含む、無制限でAnthropicのClaudeを使用するために2億ドルの契約を求めていました。 Anthropicは「NO」と言いました。なぜなら、それらは安全性、倫理、信頼性に関して厳しい一線を越えているからです。CEOのダリオは「良心的に受け入れることはできない」と述べました。 これにより、連邦政府は即座にすべてのアンソロピック技術を禁止(6か月間の国防総省段階的廃止)とし、通常は敵対的な外国企業に限定される「サプライチェーンリスク」とラベル付けしました。 AI倫理と国家安全保障の優先事項の対立です。