IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic poursuit l'administration Trump pour faire annuler l'étiquette US "risque pour la chaîne d'approvisionnement", estimant que cette désignation est illégale et viole son droit à la liberté d'expression

Le , par Anthony

28PARTAGES

7  0 
Anthropic a intenté un procès à l'administration Trump pour faire annuler sa désignation comme « risque pour la chaîne d'approvisionnement », estimant que cette mesure viole ses droits à la liberté d'expression et à une procédure régulière. Cette action en justice vient envenimer le conflit autour du refus d'Anthropic d'autoriser l'utilisation de sa technologie d'intelligence artificielle (IA) dans des armes autonomes ou à des fins de surveillance de masse. Cette désignation pourrait avoir de sérieuses répercussions sur les contrats gouvernementaux de l'entreprise et l'issue de l'affaire pourrait influencer la manière dont les entreprises d'IA négocient les restrictions relatives à l'utilisation militaire de leurs technologies.

Pour rappel, ce différend judiciaire trouve son origine dans un désaccord récent entre Anthropic et le département américain de la Défense (DoD) concernant l'utilisation militaire de l'IA. Fin février 2026, le PDG de l'entreprise, Dario Amodei, a publiquement rejeté la demande du Pentagone visant à assouplir les garde-fous appliqués à ses modèles d'IA. Le dirigeant a affirmé que la société préférait renoncer à toute collaboration avec le DoD plutôt que d'autoriser des usages susceptibles de faciliter la guerre automatisée ou la surveillance de masse.

Le jeudi 5 mars, le Pentagone a officiellement désigné Anthropic comme présentant un risque pour la chaîne d'approvisionnement, limitant ainsi l'utilisation d'une technologie qui était utilisée pour des opérations militaires en Iran. Le secrétaire américain à la Défense, Pete Hegseth, a désigné Anthropic après que la start-up ait refusé d'abandonner les garanties empêchant l'utilisation de son IA pour des armes autonomes ou la surveillance intérieure. Les deux parties étaient engagées depuis des mois dans des discussions de plus en plus controversées au sujet de ces limitations. Donald Trump et Pete Hegseth ont déclaré qu'il y aurait une période de transition de six mois.

Le lundi 9 mars 2026, Anthropic a intenté une action en justice pour empêcher le Pentagone de l'inscrire sur une liste noire de sécurité nationale américaine, intensifiant ainsi la bataille à haut risque que mène le laboratoire d'IA contre l'administration du président américain Donald Trump au sujet des restrictions d'utilisation de sa technologie.

Anthropic a déclaré dans sa plainte que cette désignation était illégale et violait ses droits à la liberté d'expression et à une procédure régulière. La plainte déposée devant un tribunal fédéral de l'État américain de Californie demandait à un juge d'annuler cette désignation et d'empêcher les agences fédérales de l'appliquer.

« Ces mesures sont sans précédent et illégales. La Constitution n'autorise pas le gouvernement à exercer son immense pouvoir pour punir une entreprise pour ses propos protégés », a déclaré Anthropic.


La société cherche également à annuler l'ordre de Donald Trump demandant aux employés fédéraux de cesser d'utiliser son chatbot IA, Claude.

Cette contestation judiciaire intensifie un débat public inhabituel sur l'utilisation de l'IA dans la guerre et la surveillance de masse, un débat qui a également entraîné les concurrents d'Anthropic dans le secteur technologique, en particulier OpenAI, qui a conclu son propre accord avec le Pentagone quelques heures seulement après que le gouvernement ait sanctionné Anthropic pour sa position.

Anthropic a déposé deux plaintes distinctes lundi, l'une devant la cour fédérale de Californie et l'autre devant la cour d'appel fédérale de Washington, DC, chacune contestant différents aspects des mesures prises par le gouvernement à l'encontre de l'entreprise.

Les responsables d'Anthropic ont déclaré que l'action en justice n'empêchait pas la reprise des négociations avec le gouvernement américain et la conclusion d'un accord. La société a déclaré qu'elle ne souhaitait pas entrer en conflit avec le gouvernement américain. La semaine dernière, un responsable du Pentagone a déclaré que les deux parties n'étaient plus en pourparlers actifs.

Une menace pour les activités d'Anthropic

Cette désignation représente une menace importante pour les activités d'Anthropic avec le gouvernement, et son issue pourrait influencer la manière dont d'autres entreprises d'IA négocient les restrictions relatives à l'utilisation militaire de leurs technologies. Le PDG de l'entreprise, Dario Amodei, a toutefois précisé que cette désignation...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 26/03/2026 à 9:57
En résumé... microsoft n'a pas voulu prendre en compte les désirs de leur utilisateurs...

Les grands stratèges de microsoft auraient dû prendre la peine de lire le chapitre 1 du livre "la vente pour les nuls" qui dit: Le client est roi!
0  0 
Avatar de FlorentGDG
Membre à l'essai https://www.developpez.com
Le 26/03/2026 à 11:32
Quand on voit qu’ils l’ont même intégré dans le bloc-notes… Comment ne pas saturer ?
0  0