To jest HISTORYCZNY moment w AI. Pentagon USA chciał umowy na 200 milionów dolarów na użycie Claude'a od Anthropic bez żadnych ograniczeń, w tym masowej inwigilacji obywateli USA i w pełni autonomicznych broni. Anthropic powiedział "NIE", ponieważ te zastosowania przekraczają twarde czerwone linie dotyczące bezpieczeństwa, etyki i niezawodności. CEO Dario powiedział: "Nie możemy w dobrej wierze się na to zgodzić." To doprowadziło do natychmiastowego federalnego zakazu wszelkiej technologii Anthropic (6-miesięczne wycofanie z Departamentu Obrony) oraz oznaczenia ich jako "ryzyko w łańcuchu dostaw", co zazwyczaj zarezerwowane jest dla wrogich zagranicznych firm. To etyka AI kontra priorytety bezpieczeństwa narodowego.