La bataille juridique entre Anthropic et l’administration Trump se déroule désormais sur deux fronts. Cette semaine, trois juges à Washington ont refusé de suspendre la désignation du Pentagone qui classe le créateur d’intelligence artificielle Claude comme « risque de la chaîne d’approvisionnement »tout en acceptant d’examiner l’affaire accélérée avec une audience fixée au 19 mai.

Le tribunal reconnaît qu’Anthropic « subira probablement un préjudice irréparable » tout au long de la procédure, mais estime que la balance des intérêts penche en faveur du gouvernement. « D’une part, un risque de préjudice financier relativement limité pour une seule entreprise privée »écrit le tribunal dans sa décision relayée par Bloomberg. « De l’autre, la gestion judiciaire de la manière dont le Département de la Guerre sécurise les technologies vitales de l’IA lors d’un conflit militaire actif ». Cette désignation oblige les entrepreneurs du Pentagone à certifier qu’ils n’utilisent pas les technologies d’Anthropic, exposant ainsi l’entreprise à des milliards de dollars de perte de revenus.
Les États-Unis ont un problème avec Anthropic
Le conflit a pour origine le refus d’Anthropic en février de se conformer à l’ultimatum du secrétaire à la Défense Pete Hegseth exigeant un accès illimité à son modèle Claude AI à des fins militaires. Anthropic avait posé ses conditions : pas de surveillance de masse des citoyens américains ni d’armement autonome. Le gouvernement a rejeté toute restriction au nom de la sécurité nationale, avant de décréter la désignation « risque de la chaîne d’approvisionnement » le 27 février.
En Californie, Anthropic a remporté une première victoire le 27 mars : un juge de San Francisco a suspendu l’application de l’interdiction pour la durée de la procédure, estimant que les sanctions violaient probablement la liberté d’expression en punissant l’entreprise pour avoir exprimé des réserves éthiques. L’administration Trump fait appel de cette décision.
Anthropic dit vouloir aller de l’avant. « Bien que ce processus soit nécessaire pour protéger Anthropic, nos clients et partenaires, notre priorité reste de travailler de manière constructive avec le gouvernement pour garantir que tous les Américains bénéficient d’une IA sûre et digne de confiance. »a déclaré l’entreprise. L’enjeu dépasse son seul cas : Anthropic soutient que les principes juridiques en cause concernent tout entrepreneur fédéral dont les positions déplairaient à l’administration Trump.






