Это ИСТОРИЧЕСКИЙ момент в AI. Пентагон США хотел заключить сделку на 200 миллионов долларов для использования Claude от Anthropic без каких-либо ограничений, включая массовое наблюдение за гражданами США и полностью автономное оружие. Anthropic сказал "НЕТ", потому что такие применения пересекают жесткие красные линии по безопасности, этике и надежности. Генеральный директор Дарио сказал: "Мы не можем с чистой совестью согласиться." Это привело к немедленному федеральному запрету на все технологии Anthropic (6-месячный вывод из эксплуатации Министерства обороны) и к их обозначению как "риска в цепочке поставок", что обычно резервируется для враждебных иностранных компаний. Это этика AI против приоритетов национальной безопасности.