Anthropic verklagt die US-Regierung: Ein Blick hinter die beispiellose KI-Sicherheitskonfrontation, die die Tech-Branche neu gestalten könnte
Nachrichtenzusammenfassung
San Francisco, CA — Montag, 9. März 2026 (EDT)
Anthropic, eines der weltweit führenden Unternehmen für künstliche Intelligenz und Hersteller des KI-Modells Claude, hat am Montag zwei Bundesklagen gegen die Trump-Regierung, das Verteidigungsministerium und mehr als ein Dutzend weitere Bundesbehörden eingereicht. Die rechtliche Maßnahme richtet sich gegen die beispiellose Entscheidung der Regierung, das in San Francisco ansässige KI-Unternehmen als "Risiko für die nationale Sicherheit in der Lieferkette" einzustufen – eine Bezeichnung, die historisch für Unternehmen reserviert war, die mit ausländischen Gegnern in Verbindung stehen.
Der Wendepunkt: Eine zweiwöchige Pattsituation
Der Konflikt zwischen Anthropic und dem Pentagon eskalierte in den letzten zwei Wochen rapide. Im Zentrum des Streits steht die Weigerung von CEO Dario Amodei, die uneingeschränkte Nutzung des Claude-KI-Modells des Unternehmens zu gestatten – insbesondere für vollständig autonome Waffensysteme und die massenhafte heimische Überwachung amerikanischer Bürger. Amodei traf sich im Februar mit Verteidigungsminister Pete Hegseth in der Hoffnung, eine Einigung zu erzielen, doch die Verhandlungen scheiterten öffentlich.
Am 27. Februar veröffentlichte Präsident Trump eine Mitteilung in den sozialen Medien, in der er alle Bundesbehörden anwies, "sofort jegliche Nutzung der Technologie von Anthropic einzustellen", und bezeichnete das Unternehmen als "eine radikal linke, woke Firma". Am selben Tag kündigte Minister Hegseth an, dass Anthropic offiziell als Risiko für die Lieferkette eingestuft werde, und erklärte weiter: "Kein Auftragnehmer, Lieferant oder Partner, der Geschäfte mit dem US-Militär tätigt, darf kommerzielle Aktivitäten mit Anthropic durchführen."
Die formelle Einstufung wurde am 4. März 2026 (EST) offiziell bestätigt und machte Anthropic zum ersten US-Unternehmen in der Geschichte, das diese Klassifizierung erhielt.
Die Klagen: Zwei Fronten, eine Botschaft
Anthropic reichte zwei separate Klagen ein – eine beim U.S. District Court for the Northern District of California und eine weitere beim U.S. Circuit Court of Appeals for Washington, D.C. – die jeweils unterschiedliche Aspekte der staatlichen Maßnahmen betreffen. Die 48-seitige Klageschrift bezeichnet die Schritte der Regierung als "beispiellos und rechtswidrig".
Die Einreichungen enthalten drei zentrale rechtliche Argumente. Erstens, dass die Bundesregierung Vergeltungsmaßnahmen gegen Anthropic ergriffen hat, weil das Unternehmen von seinem durch den Ersten Verfassungszusatz geschützten Recht auf freie Meinungsäußerung in Angelegenheiten von öffentlicher Bedeutung Gebrauch gemacht hat – insbesondere in Bezug auf seine erklärten Positionen zur KI-Sicherheit. Zweitens, dass Präsident Trump seine Befugnisse überschritten hat, indem er alle Bundesbehörden angewiesen hat, die Nutzung der Technologie von Anthropic einzustellen. Und drittens, dass Anthropic vor der Einstufung als Risiko für die Lieferkette keine angemessene rechtsstaatliche Behandlung erhalten hat.
"Die Verfassung erlaubt es der Regierung nicht, ihre enorme Macht einzusetzen, um ein Unternehmen für seine geschützte Meinungsäußerung zu bestrafen", heißt es in der Klage. "Anthropic wendet sich als letztes Mittel an die Justiz, um seine Rechte zu wahren und die rechtswidrige Vergeltungskampagne der Exekutive zu stoppen."
Die finanziellen Risiken
Die wirtschaftlichen Folgen der schwarzen Liste sind bereits spürbar. Anthropic warnte in seiner Klageschrift, dass "Verträge mit der Bundesregierung bereits gekündigt werden" und dass "Hunderte von Millionen Dollar" an kurzfristigen Einnahmen gefährdet seien. Das Unternehmen wird voraussichtlich im Jahr 2026 rund 14 Milliarden US-Dollar Umsatz erzielen, wobei mehr als 500 Kunden jährlich mindestens 1 Million US-Dollar für Claude zahlen. Die jüngste Bewertung des Unternehmens liegt bei 380 Milliarden US-Dollar.
Über staatliche Verträge hinaus ist das Unternehmen besorgt, dass die Einstufung als Risiko für die Lieferkette – selbst wenn sie sich auf die Arbeit des Pentagons beschränkt – Zweifel an seinen breiteren kommerziellen Beziehungen aufkommen lässt.
Reaktion der Branche: Konkurrenten zeigen Unterstützung
In einer ungewöhnlichen Solidaritätsbekundung konkurrierender KI-Labore reichten Dutzende von Wissenschaftlern und Forschern von OpenAI und Google DeepMind am Montag in ihrer persönlichen Eigenschaft ein Amicus-Curiae-Schreiben ein, das Anthropic unterstützt. Die Gruppe argumentierte, dass die Einstufung als Risiko für die Lieferkette die Wettbewerbsfähigkeit der USA im Bereich KI beeinträchtigen und eine wichtige öffentliche Debatte über die verantwortungsvolle Entwicklung der Technologie unterdrücken könnte.
Bemerkenswerterweise schloss OpenAI – wohl Anthropic's größter Rivale – nur wenige Stunden nach der Bestrafung von Anthropic durch die Regierung einen eigenen Vertrag mit dem Pentagon ab. OpenAI erklärte jedoch auch öffentlich, dass es die Einstufung von Anthropic als Risiko für die Lieferkette ablehne, und sagte: "Eine gute Zukunft wird eine echte und tiefe Zusammenarbeit zwischen der Regierung und den KI-Laboren erfordern."
Die Position des Pentagons
Vertreter des Verteidigungsministeriums betonten, dass private Unternehmen nicht vorschreiben könnten, wie die US-Regierung Technologie in Kriegs- und taktischen Einsätzen einsetzt. Das Pentagon bestand darauf, volle Flexibilität bei der Nutzung von KI für "jeden gesetzlichen Zweck" zu haben, und argumentierte, dass die Einschränkungen von Anthropic amerikanische Leben auf dem Schlachtfeld gefährden könnten. Als Reaktion auf die Klage erklärte ein Sprecher des Verteidigungsministeriums lediglich, dass die Behörde sich nicht zu Rechtsstreitigkeiten äußere.
Die Sprecherin des Weißen Hauses, Liz Huston, erklärte in einer Stellungnahme: "Der Präsident und der Kriegsminister stellen sicher, dass Amerikas tapfere Kämpfer die richtigen Werkzeuge haben, die sie für ihren Erfolg benötigen, und werden garantieren, dass sie niemals den ideologischen Launen von Big-Tech-Führern ausgeliefert sind."
Claude weiterhin im Einsatz – auch während des Iran-Konflikts
In einer bemerkenswerten Ironie berichteten CBS News und CNBC, dass das Pentagon Claude auch während der laufenden US- und israelischen Militäroperationen im Zusammenhang mit dem Iran weiterhin eingesetzt hat – selbst nach der formellen schwarzen Liste. Das Wall Street Journal berichtete ebenfalls, dass Claude zuvor in Militäroperationen eingesetzt worden war, unter anderem bei Geheimdienstbewertungen und der Identifizierung von Zielen im Iran sowie bei der Operation, die zur Verhaftung des venezolanischen Führers Nicolás Maduro führte.
Anthropic räumte seine Partnerschaft mit nationalen Sicherheitsauftragnehmern, darunter Palantir, für Datenverarbeitung, Trendidentifizierung und Unterstützung der Regierungsentscheidungsfindung ein – Arbeiten, die nach Ansicht des Unternehmens innerhalb ethischer Grenzen liegen.
Was als Nächstes passiert
Anthropic beantragt eine einstweilige Verfügung, um die Anordnung von Hegseth bezüglich des Risikos für die Lieferkette zu blockieren und diese als "willkürlich, unberechenbar, missbräuchlich und rechtswidrig" erklären zu lassen. Das Unternehmen erklärte ferner, dass seine Entscheidung, eine gerichtliche Überprüfung zu beantragen, den weiteren Dialog mit der Regierung nicht ausschließe.
"Die Einleitung eines Gerichtsverfahrens ändert nichts an unserem langjährigen Engagement, KI zum Schutz unserer nationalen Sicherheit einzusetzen", sagte ein Sprecher von Anthropic, "aber dies ist ein notwendiger Schritt, um unser Geschäft, unsere Kunden und unsere Partner zu schützen. Wir werden weiterhin alle Wege zur Lösung verfolgen, einschließlich des Dialogs mit der Regierung."
Der Ausgang dieses Falls wird wahrscheinlich einen wichtigen Präzedenzfall nicht nur für Anthropic, sondern für die gesamte KI-Branche setzen – und bestimmen, wie viel Macht die Regierung hat, Technologieunternehmen zur Entfernung von Sicherheitsvorkehrungen zu zwingen, und ob unternehmensethische Verpflichtungen zur KI mit den Anforderungen der nationalen Sicherheit vereinbar sind.