Réponse du ministère US de la Justice à la plainte déposée par Anthropic : le refus de la start-up de signer un contrat avec l'armée relève d'un litige commercial et non d'une question de liberté d'expressionLe ministère américain de la Justice a déposé une réponse de 40 pages à la plainte d'Anthropic, arguant que le refus de la start-up spécialisée en IA de signer un contrat autorisant « toute utilisation légale » de ses modèles Claude par l'armée constitue un litige commercial — et non une question de liberté d'expression — et que le Pentagone était tout à fait en droit de couper les vivres à l'entreprise. Les avocats du ministère de la Justice ont déclaré que, les systèmes d'IA étant « extrêmement vulnérables à la manipulation », le fait de continuer à donner à Anthropic accès à l'infrastructure de combat du ministère de la Défense comportait des risques sérieux.
Anthropic PBC est une entreprise américaine spécialisée dans l'intelligence artificielle (IA) dont le siège social est situé à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) baptisée Claude. Anthropic fonctionne comme une société d'intérêt public qui mène des activités de recherche et de développement en IA afin « d'étudier leurs propriétés de sécurité à la frontière technologique » et d'utiliser ces recherches pour déployer des modèles sûrs destinés au grand public.
Dans le conflit qui oppose l'armée américaine et Anthropic, le ministère de la Défense a officiellement informé la direction d'Anthropic que l'entreprise et ses produits avaient été désignés comme un risque pour la chaîne d'approvisionnement. Anthropic est la seule entreprise américaine à avoir été publiquement désignée comme présentant un risque pour la chaîne d'approvisionnement, cette désignation étant traditionnellement utilisée contre des adversaires étrangers. Cette étiquette obligera les fournisseurs et les sous-traitants du secteur de la défense à certifier qu'ils n'utilisent pas les modèles d'Anthropic dans le cadre de leur collaboration avec le Pentagone.
En réaction, Anthropic a intenté un procès à l'administration Trump pour faire annuler sa désignation comme « risque pour la chaîne d'approvisionnement ». Anthropic a déclaré dans sa plainte que cette désignation était illégale et violait ses droits à la liberté d'expression et à une procédure régulière. « Ces mesures sont sans précédent et illégales. La Constitution n'autorise pas le gouvernement à exercer son immense pouvoir pour punir une entreprise pour ses propos protégés », a déclaré Anthropic. La société cherche également à annuler l'ordre de Donald Trump demandant aux employés fédéraux de cesser d'utiliser son chatbot IA, Claude.
Récemment, le ministère américain de la Justice a déposé une réponse de 40 pages à la plainte d'Anthropic, arguant que le refus de la start-up spécialisée en IA de signer un contrat autorisant « toute utilisation légale » de ses modèles Claude par l'armée constitue un litige commercial — et non une question de liberté d'expression — et que le Pentagone était tout à fait en droit de couper les vivres à l'entreprise. Le gouvernement a qualifié Anthropic de risque « inacceptable » et « substantiel » pour la sécurité nationale, et a demandé au juge fédéral chargé de l'affaire de rejeter la demande de l'entreprise visant à obtenir une injonction préliminaire qui suspendrait la désignation de risque pour la chaîne d'approvisionnement pendant la durée du litige.
L'argument central du gouvernement va au-delà de la logique standard des marchés publics. Dans leur requête, les avocats du ministère de la Justice ont déclaré que, les systèmes d'IA étant « extrêmement vulnérables à la manipulation », le fait de continuer à donner à Anthropic accès à l'infrastructure de combat du ministère de la Défense comportait des risques sérieux — notamment que le personnel de l'entreprise puisse « saboter, introduire malicieusement des fonctions indésirables ou autrement subvertir » ses modèles pendant des opérations en cours si Anthropic estimait que ses limites internes étaient franchies.
Le gouvernement a également noté qu’il « ne peut pas simplement appuyer sur un bouton » pour l’instant, étant donné que Claude est actuellement le seul modèle d’IA autorisé à être utilisé sur les systèmes classifiés du département et que des opérations de combat de haute intensité sont en cours. Ce cadrage constitue une escalade significative. Il repositionne Anthropic non seulement comme un fournisseur inflexible, mais aussi comme une menace potentielle — une entreprise dont la capacité permanente à mettre à jour et à ajuster ses propres modèles la rend intrinsèquement indigne de confiance dans un contexte de guerre.
Le procès intenté par Anthropic soutient que le Pentagone a utilisé l'étiquette « risque lié à la chaîne d'approvisionnement » comme une sanction idéologique.
Le contrat de 200 millions de dollars entre Anthropic et le Pentagone a échoué après que les deux parties n’ont pas réussi à s’entendre sur les conditions d’utilisation. Anthropic souhaitait des garanties contractuelles explicites que Claude ne serait pas utilisé pour la surveillance de masse sur le territoire national ni pour des armes létales entièrement autonomes. Le Pentagone a rétorqué qu’il n’appartenait pas à une entreprise privée de dicter à l’armée comment utiliser ses outils, et a exigé en contrepartie un accès pour « toute utilisation légale ».
Lorsque les négociations ont échoué, le secrétaire à la Défense Pete Hegseth a désigné Anthropic comme un « risque pour la chaîne d'approvisionnement » — une étiquette auparavant réservée aux adversaires étrangers —, excluant de fait l'entreprise des contrats fédéraux. Anthropic a intenté une action en justice le 9 mars, déposant des plaintes à la fois devant le tribunal du district nord de Californie et devant la cour d'appel du circuit de Washington.
Elle a fait valoir que cette désignation constituait une mesure de rétorsion inconstitutionnelle à l'encontre de ses politiques de sécurité, et a averti que plus de 100 entreprises clientes pourraient se retirer en raison de cela, ce qui pourrait coûter des milliards à l'entreprise. Le ministère de la Justice a également rejeté ces préoccupations financières, qualifiant les pertes alléguées par Anthropic de « spéculatives » et affirmant qu'elles pouvaient être traitées par des recours contractuels standard — et non par une mesure d'urgence judiciaire.
Pourtant, Alex Karp, PDG de Palantir, a confirmé que l'entreprise continuait d'utiliser les modèles d'intelligence artificielle (IA) « Claude » d'Anthropic, alors que le Pentagone a désigné cette société comme un risque pour la chaîne d'approvisionnement. Intervenant lors de la conférence AIPcon 9, Karp a reconnu que, bien que le département de la Défense (DoD) envisage de se passer progressivement d'Anthropic, les technologies de cette dernière demeurent intégrées aux systèmes de Palantir. La décision du Pentagone a également suscité des inquiétudes quant à la faisabilité d'une transition rapide, en particulier dans le cadre des opérations militaires critiques.
Le Pentagone a également révélé dans son dossier qu’il travaillait activement au déploiement d’IA provenant de Google, d’OpenAI et de xAI comme alternatives à Claude. Les travaux d’ingénierie ont déjà commencé, selon le directeur numérique et de l’IA du département. En effet, Google a récemment annoncé de nouveaux outils d'intelligence artificielle (IA) pour le département américain de la Guerre. La société a déclaré que ses modèles d'IA Gemini alimenteront une nouvelle fonctionnalité sur GenAI.mil, le portail d'IA d'entreprise du Pentagone. Google a déclaré que les agents IA fonctionneront dans un premier temps sur des réseaux non classifiés, mais des discussions sont déjà en cours pour étendre leur utilisation à des systèmes classifiés et top secrets.
Anthropic a quelque jours pour déposer sa contre-réponse. L’audience relative à l’injonction préliminaire est prévue le 24 mars devant le tribunal fédéral de San Francisco.
Source : Réponse du département américain de la Guerre
Et vous ?
Pensez-vous que cette réponse est crédible ou pertinente ?
Quel est votre avis sur le sujet ?Voir aussi :
Le gouvernement américain va-t-il nationaliser les entreprises d'IA ? Le bras de fer entre Anthropic et le Pentagone inquiète les PDG, Sam Altman estime que cette hypothèse ne peut être totalement exclue
Les employés d'OpenAI et de Google, y compris le scientifique en chef de DeepMind, Jeff Dean, ont déposé un mémoire d'amicus en soutien à Anthropic dans sa lutte juridique contre le gouvernement américain
Sam Altman modifie l'accord conclu entre OpenAI et les États-Unis suite à la polémique : il interdit à l'armée américaine d'espionner les Américains via ChatGPT, pour le reste du monde ça va
Vous avez lu gratuitement 6 217 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.