Anthropic a intenté un procès à l'administration Trump pour faire annuler sa désignation comme « risque pour la chaîne d'approvisionnement », estimant que cette mesure viole ses droits à la liberté d'expression et à une procédure régulière. Cette action en justice vient envenimer le conflit autour du refus d'Anthropic d'autoriser l'utilisation de sa technologie d'intelligence artificielle (IA) dans des armes autonomes ou à des fins de surveillance de masse. Cette désignation pourrait avoir de sérieuses répercussions sur les contrats gouvernementaux de l'entreprise et l'issue de l'affaire pourrait influencer la manière dont les entreprises d'IA négocient les restrictions relatives à l'utilisation militaire de leurs technologies.Pour rappel, ce différend judiciaire trouve son origine dans un désaccord récent entre Anthropic et le département américain de la Défense (DoD) concernant l'utilisation militaire de l'IA. Fin février 2026, le PDG de l'entreprise, Dario Amodei, a publiquement rejeté la demande du Pentagone visant à assouplir les garde-fous appliqués à ses modèles d'IA. Le dirigeant a affirmé que la société préférait renoncer à toute collaboration avec le DoD plutôt que d'autoriser des usages susceptibles de faciliter la guerre automatisée ou la surveillance de masse.
Le jeudi 5 mars, le Pentagone a officiellement désigné Anthropic comme présentant un risque pour la chaîne d'approvisionnement, limitant ainsi l'utilisation d'une technologie qui était utilisée pour des opérations militaires en Iran. Le secrétaire américain à la Défense, Pete Hegseth, a désigné Anthropic après que la start-up ait refusé d'abandonner les garanties empêchant l'utilisation de son IA pour des armes autonomes ou la surveillance intérieure. Les deux parties étaient engagées depuis des mois dans des discussions de plus en plus controversées au sujet de ces limitations. Donald Trump et Pete Hegseth ont déclaré qu'il y aurait une période de transition de six mois.
Le lundi 9 mars 2026, Anthropic a intenté une action en justice pour empêcher le Pentagone de l'inscrire sur une liste noire de sécurité nationale américaine, intensifiant ainsi la bataille à haut risque que mène le laboratoire d'IA contre l'administration du président américain Donald Trump au sujet des restrictions d'utilisation de sa technologie.
Anthropic a déclaré dans sa plainte que cette désignation était illégale et violait ses droits à la liberté d'expression et à une procédure régulière. La plainte déposée devant un tribunal fédéral de l'État américain de Californie demandait à un juge d'annuler cette désignation et d'empêcher les agences fédérales de l'appliquer.
« Ces mesures sont sans précédent et illégales. La Constitution n'autorise pas le gouvernement à exercer son immense pouvoir pour punir une entreprise pour ses propos protégés », a déclaré Anthropic.
La société cherche également à annuler l'ordre de Donald Trump demandant aux employés fédéraux de cesser d'utiliser son chatbot IA, Claude.
Cette contestation judiciaire intensifie un débat public inhabituel sur l'utilisation de l'IA dans la guerre et la surveillance de masse, un débat qui a également entraîné les concurrents d'Anthropic dans le secteur technologique, en particulier OpenAI, qui a conclu son propre accord avec le Pentagone quelques heures seulement après que le gouvernement ait sanctionné Anthropic pour sa position.
Anthropic a déposé deux plaintes distinctes lundi, l'une devant la cour fédérale de Californie et l'autre devant la cour d'appel fédérale de Washington, DC, chacune contestant différents aspects des mesures prises par le gouvernement à l'encontre de l'entreprise.
Les responsables d'Anthropic ont déclaré que l'action en justice n'empêchait pas la reprise des négociations avec le gouvernement américain et la conclusion d'un accord. La société a déclaré qu'elle ne souhaitait pas entrer en conflit avec le gouvernement américain. La semaine dernière, un responsable du Pentagone a déclaré que les deux parties n'étaient plus en pourparlers actifs.
Une menace pour les activités d'Anthropic
Cette désignation représente une menace importante pour les activités d'Anthropic avec le gouvernement, et son issue pourrait influencer la manière dont d'autres entreprises d'IA négocient les restrictions relatives à l'utilisation militaire de leurs technologies. Le PDG de l'entreprise, Dario Amodei, a toutefois précisé que cette désignation...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.