Le secrétaire américain à la Défense, Pete Hegseth, a exprimé le désir que son ministère puisse tirer parti des avancées en intelligence artificielle sans les restrictions de sécurité généralement imposées. Anthropic, start-up californienne reconnue pour son engagement envers la sécurité de l'IA, se montre réticente à cette demande.
Des fuites provenant de plusieurs sources, dont l'AFP et Defense One, rapportent que le département de la Défense envisage de contraindre Anthropic à abandonner ses précautions éthiques concernant l'utilisation de son chatbot Claude. Le sous-secrétaire à la Défense pour la recherche et l'ingénierie, Emil Michael, a fait savoir que le Pentagone souhaite que tous ses partenaires en IA, y compris Anthropic, acceptent un cadre d'utilisation élargi.
Des philosophies différentes sur les usages de l'IA
Emil Michael a noté que la position d'Anthropic se distingue de celle d'autres entreprises, affirmant que "Certaines entreprises ont des philosophies différentes sur les usages qu'elles souhaitent pour leurs produits". La start-up, selon de nombreux rapports, insiste pour que son IA ne soit pas utilisée pour la surveillance de masse ni pour des systèmes d'armement autonomes.
Une réunion cruciale a eu lieu le 24 février entre Hegseth et Dario Amodei, le dirigeant d'Anthropic. Un ultimatum a été fixé, exigeant une réponse de la société avant vendredi soir, sous peine de voir le Pentagone invoquer le Defense Production Act de 1950 pour forcer la start-up à répondre à ses exigences. Selon les mêmes sources, l'administration envisage également de placer Anthropic sur une liste de compagnies jugées à risque pour la chaîne d'approvisionnement, une classification généralement réservée aux entreprises étrangères.
Un porte-parole de la société a exprimé à l'AFP qu'"Anthropic continue de discuter de manière constructive" de l'utilisation de son IA afin de "garantir que ses modèles peuvent soutenir mission de sécurité nationale de manière responsable et fiable".
Il n'y a pas de récompense pour la deuxième place
Fondée par d'anciens employés d'OpenAI, Anthropic a toujours fait valoir une approche éthique de l'IA, insistant sur la prévention des dangers associés à l'émergence d'une IA ultra-performante. Ses différentes versions, dont Claude, sont devenues des références en matière d'efficacité, notamment dans le développement informatique. En début 2026, la société a publié une "Constitution" énonçant des directives visant à éviter des actions potentiellement dangereuses.
Cependant, des membres de l'administration Trump ont constamment critiqué les politiques de modération, les jugeant trop restrictives. Récemment, le Pentagone a vanté sa propre plateforme d'IA sans faire mention d'Anthropic, soulignant que "Il n'y a pas de récompense pour la deuxième place" dans la course mondiale à l'innovation en IA, comme l'a déclaré Emil Michael. Il a ajouté que l'IA représente la prochaine "Destinée manifeste" des États-Unis, et que le pays doit mener cette nouvelle ère.







