Vereinigte Staaten
Vereinigte Staaten·Regulierung

27. März 2026 um 05:52

US-Richter stoppt vorerst Pentagon-Verbot gegen Anthropic

US-Richter stoppt vorerst Pentagon-Verbot gegen Anthropic
Quick Take
  • Richterin Rita Lin hat eine einstweilige Verfügung erlassen, um das Pentagon daran zu hindern, Anthropic als Sicherheitsrisiko für die nationale Lieferkette einzustufen.
  • Der Gerichtsbeschluss setzt vorübergehend die Anweisung von Präsident Donald Trump aus, die allen Bundesbehörden die Nutzung des Chatbots Claude untersagte.
  • Der Konflikt begann, als Anthropic sich weigerte, die Nutzung seiner Technologie für tödliche autonome Waffen und Massenüberwachungsprogramme im Inland zu gestatten.

Gerichtliche Entscheidung und Rechte des ersten Verfassungszusatzes

In einem bedeutenden juristischen Sieg für das KI-Unternehmen Anthropic hat eine Bundesrichterin in San Francisco den Versuch des Pentagons blockiert, das Unternehmen als Lieferkettenrisiko einzustufen. Richterin Rita Lin vom Bezirksgericht für den nördlichen Distrikt von Kalifornien bezeichnete das Vorgehen der Regierung als willkürlich und als Ermessensmissbrauch. Die Anordnung der Richterin stoppt gezielt eine Richtlinie des Bundes, die darauf abzielte, den Einsatz von Anthropic-KI-Tools in der gesamten Regierung zu beenden.

In ihrem Urteil wies Richterin Lin die von ihr so bezeichnete Orwellsche Vorstellung zurück, dass ein einheimisches Unternehmen allein deshalb als potenzieller Gegner gebrandmarkt werden könne, weil es eine von der Regierung abweichende Meinung vertritt. Sie stellte ferner fest, dass die Strafmaßnahmen der Regierung wie eine Form von Vergeltung gegen den ersten Verfassungszusatz gegen Anthropic wirkten, da das Unternehmen die Vertragsposition der Regierung öffentlich kritisiert hatte.

Das Scheitern der Verhandlungen über Verteidigungsverträge

Der Rechtsstreit geht auf eine Vereinbarung vom Juli 2025 zwischen Anthropic und dem Pentagon zurück, die darauf abzielte, das KI-Modell Claude in geheime Militärnetzwerke zu integrieren. Die Partnerschaft scheiterte jedoch im Februar, als das Pentagon unter Verteidigungsminister Pete Hegseth forderte, dass Anthropic die Nutzung seiner Technologie „für alle rechtmäßigen Zwecke“ ohne ethische Einschränkungen erlauben müsse.

Anthropic hielt an seiner strikten Ablehnung gegen den Einsatz seiner KI für folgende Zwecke fest:

  • Tödliche autonome Waffen
  • Massenüberwachung von US-Bürgern im Inland

Nach dem Scheitern dieser Gespräche ordnete Präsident Trump am 27. Februar ein regierungsweites Verbot an und behauptete in den sozialen Medien, das Unternehmen habe einen KATASTROPHALEN FEHLER begangen, indem es versucht habe, das Verteidigungsministerium unter Druck zu setzen.

Marktauswirkungen und Branchenführerschaft

Das Urteil fällt in eine kritische Phase für Anthropic, das derzeit den Sektor der Unternehmens-KI anführt. Laut Daten von Menlo Ventures hielt Anthropic im Jahr 2025 einen Marktanteil von 32 % und übertraf damit den Anteil von OpenAI von 25 %. Ein dauerhaftes Regierungsverbot hätte diese führende Position ernsthaft gefährdet.

Die Entscheidung des Gerichts folgt auf eine von Anthropic am 9. März eingereichte Klage, in der argumentiert wurde, dass das Pentagon seine gesetzlichen Befugnisse überschritten habe. Nach der Anhörung am 24. März drückte das Unternehmen seine Dankbarkeit für das schnelle Handeln des Gerichts und die Anerkennung aus, dass Anthropic in seinem laufenden Rechtsstreit wahrscheinlich Erfolg haben wird.

Wie reagiert der Markt?

67%Long/Short33%

commentCount

commentLogin

commentEmpty

commentEmptySubtitle