C'est un moment HISTORIQUE dans l'IA. Le Pentagone américain voulait un contrat de 200 millions de dollars pour utiliser Claude d'Anthropic sans aucune restriction, y compris la surveillance de masse des citoyens américains et des armes entièrement autonomes. Anthropic a dit "NON" car ces utilisations franchissent des lignes rouges strictes en matière de sécurité, d'éthique et de fiabilité. Le PDG Dario a déclaré : "Nous ne pouvons pas, en toute conscience, accéder." Cela a conduit à une interdiction fédérale immédiate de toute technologie d'Anthropic (phase de retrait de 6 mois du DoD) et à les qualifier de "risque pour la chaîne d'approvisionnement", une désignation généralement réservée aux entreprises étrangères adverses. C'est l'éthique de l'IA contre les priorités de sécurité nationale.