Dies ist ein HISTORISCHER Moment in der KI. Das US-Verteidigungsministerium wollte einen Vertrag über 200 Millionen Dollar, um Anthropics Claude ohne Einschränkungen zu nutzen, einschließlich der Massenüberwachung von US-Bürgern und vollautonomen Waffen. Anthropic sagte "NEIN", weil diese Anwendungen strenge rote Linien in Bezug auf Sicherheit, Ethik und Zuverlässigkeit überschreiten. CEO Dario sagte: "Wir können nicht mit gutem Gewissen zustimmen." Dies führte zu einem sofortigen bundesstaatlichen Verbot aller Technologien von Anthropic (6-monatiger Ausstieg des Verteidigungsministeriums) sowie zur Einstufung als "Lieferkettenrisiko", eine Bezeichnung, die normalerweise ausländischen feindlichen Unternehmen vorbehalten ist. Es geht um KI-Ethische Grundsätze vs. nationale Sicherheitsprioritäten.