Anthropic, qui propose le chatbot d'intelligence artificielle Claude, a déposé deux plaintes contre le ministère américain de la Défense, contestant la décision du Pentagone de la qualifier d'entreprise à risques liés à la chaîne d'approvisionnement. Cette désignation, appliquée pour la première fois à une entreprise américaine, la prive effectivement de tout contrat fédéral.

Ce label est normalement réservé aux entreprises présentant un risque majeur pour la sécurité nationale, y compris celles liées au gouvernement chinois. Anthropic, dans ses deux recours déposés aujourd'hui simultanément devant le tribunal fédéral du district nord de Californie et devant la Cour d'appel du circuit de Washington, affirme que les statuts juridiques régissant cette désignation sont étroits et ne s'appliquent pas aux entreprises américaines. L'entreprise accuse également le Pentagone d'avoir agi pour des raisons idéologiques, en violation de la liberté d'expression du premier amendement.
« C’est une étape nécessaire pour protéger notre entreprise, nos clients et nos partenaires »a déclaré Anthropic à plusieurs médias américains, dont le New York Times. « Nous continuerons d'explorer toutes les voies menant à une résolution, y compris le dialogue avec le gouvernement. »
Un contrat de 200 millions de dollars au cœur du conflit
Le différend remonte aux négociations d'un contrat de 200 millions de dollars visant à fournir au Pentagone des technologies d'IA sur des systèmes classifiés. Anthropic avait refusé que ses modèles soient utilisés pour la surveillance de masse des Américains ou pour des armes mortelles autonomes. Le Pentagone a répondu qu’une entreprise privée ne pouvait pas dicter sa politique au gouvernement américain. Les pourparlers ont échoué et le secrétaire à la Défense, Pete Hegseth, a ensuite annoncé la désignation de risque, officiellement notifiée à Anthropic la semaine dernière.
L'ironie est que la technologie d'IA d'Anthropic reste activement déployée au sein du Pentagone, notamment pour analyser les vastes volumes de données collectées par les agences de renseignement américaines et pour la guerre en cours au Moyen-Orient. Anthropic a proposé d'aider le Pentagone à migrer vers un autre système d'IA, tout en maintenant son offre de négocier en parallèle des procédures judiciaires.
OpenAI et xAI prennent le relais
Le vide laissé par Anthropic a déjà été comblé dans la réalité. OpenAI et xAI, la société d'Elon Musk, ont récemment signé des accords avec le ministère américain de la Défense pour fournir leurs technologies sur des systèmes classifiés. OpenAI a convenu que le Pentagone utiliserait ses modèles à des fins juridiques, en négociant en échange des garanties techniques pour limiter la surveillance de masse des Américains. Les critiques estiment cependant que ces termes laissent des failles exploitables.






