États-Unis
États-Unis·Régulation

27 mars 2026 à 05:52

Un juge US suspend l'interdiction d'Anthropic par le Pentagone

Un juge US suspend l'interdiction d'Anthropic par le Pentagone
Quick Take
  • La juge Rita Lin a rendu une injonction préliminaire pour empêcher le Pentagone de désigner Anthropic comme un risque pour la chaîne d'approvisionnement de la sécurité nationale.
  • L'ordonnance du tribunal suspend temporairement la directive du président Donald Trump qui interdisait à toutes les agences fédérales d'utiliser le chatbot Claude.
  • Le conflit a éclaté lorsqu'Anthropic a refusé de permettre que sa technologie soit utilisée pour des armes autonomes létales et des programmes de surveillance domestique de masse.

Décision judiciaire et droits du premier amendement

Dans une victoire juridique majeure pour la société d'IA Anthropic, une juge fédérale de San Francisco a bloqué la tentative du Pentagone de classer l'entreprise comme un risque pour la chaîne d'approvisionnement. La juge Rita Lin, du tribunal de district du nord de la Californie, a qualifié les actions du gouvernement d'arbitraires et d'abus de pouvoir. L'ordonnance de la juge suspend spécifiquement une directive fédérale visant à mettre fin à l'utilisation des outils d'IA d'Anthropic dans l'ensemble de l'administration.

Dans sa décision, la juge Lin a rejeté ce qu'elle a appelé la notion orwellienne selon laquelle une entreprise nationale pourrait être qualifiée d'adversaire simplement pour avoir exprimé son désaccord avec le gouvernement. Elle a en outre noté que les mesures punitives de l'administration semblaient être une forme de représailles contre le premier amendement à l'encontre d'Anthropic pour avoir attiré l'attention du public sur les exigences contractuelles du gouvernement.

L'échec des négociations sur les contrats de défense

La bataille juridique remonte à un accord de juillet 2025 entre Anthropic et le Pentagone, qui visait à intégrer le modèle d'IA Claude dans les réseaux militaires classifiés. Cependant, le partenariat s'est effondré en février lorsque le Pentagone, dirigé par le secrétaire à la Défense Pete Hegseth, a exigé qu'Anthropic autorise l'utilisation de sa technologie « à toutes les fins licites » sans aucune restriction éthique.

Anthropic a maintenu une position ferme contre l'utilisation de son IA pour :

  • Les armes autonomes létales
  • La surveillance domestique de masse des citoyens américains

À la suite de l'échec de ces discussions, le président Trump a ordonné une interdiction à l'échelle du gouvernement le 27 février, affirmant sur les réseaux sociaux que l'entreprise avait commis une ERREUR DÉSASTREUSE en tentant de faire pression sur le département de la Défense.

Impact sur le marché et leadership de l'industrie

Cette décision intervient à un moment critique pour Anthropic, qui domine actuellement le secteur de l'IA pour les entreprises. Selon les données de Menlo Ventures, en 2025, Anthropic détenait 32 % de parts de marché, dépassant les 25 % d'OpenAI. Une interdiction gouvernementale prolongée aurait gravement menacé cette position de leader.

La décision du tribunal fait suite à une plainte déposée par Anthropic le 9 mars, arguant que le Pentagone avait outrepassé son autorité légale. Après l'audience du 24 mars, l'entreprise a exprimé sa gratitude pour l'action rapide du tribunal et sa reconnaissance du fait qu'Anthropic est susceptible d'obtenir gain de cause dans son défi juridique en cours.

Quelle est la réaction du marché ?

67%Long/Short33%

commentCount

commentLogin

commentEmpty

commentEmptySubtitle