Pentagon wählt OpenAI statt Anthropic, während die Debatte über KI-Kriegsbefugnisse einen Bruchpunkt erreicht
OpenAI schließt geheimen KI-Deal mit dem Pentagon Stunden nach Trumps Blacklisting von Anthropic
Hintergrund: Eine Woche politischer Turbulenzen in der KI
Die Woche vom 23. bis 28. Februar 2026 erwies sich als eine der dramatischsten in der Geschichte der künstlichen Intelligenz. Im Mittelpunkt: ein hochriskantes Patt zwischen dem US-Verteidigungsministerium (DoD) – von der Trump-Administration offiziell in „Kriegsministerium“ umbenannt – und führenden KI-Unternehmen über die Bedingungen, unter denen fortschrittliche KI-Modelle in geheimen militärischen Umgebungen eingesetzt werden könnten.
Das Pentagon hatte KI-Firmen gedrängt, die Nutzung ihrer Modelle für „alle rechtmäßigen Zwecke“ zu gestatten, ein breites Mandat, das bei mehreren Spitzenlaboren Alarmglocken läuten ließ. Anthropic, das KI-Sicherheitsunternehmen hinter der Claude-Modellfamilie, zog eine klare rote Linie: Seine Technologie würde nicht für massenhafte inländische Überwachung oder vollständig autonome Waffensysteme eingesetzt werden.
Anthropic auf der schwarzen Liste: Eine historische Einstufung
Am Freitag, dem 28. Februar 2026 (Eastern Time), traf Verteidigungsminister Pete Hegseth eine außergewöhnliche Entscheidung – er stufte Anthropic offiziell als „Lieferkettenrisiko für die nationale Sicherheit“ ein. Diese Einstufung, die normalerweise Unternehmen mit Verbindungen zu ausländischen Gegnern vorbehalten ist, hatte schwerwiegende praktische Konsequenzen: Ab sofort durfte kein Auftragnehmer, Lieferant oder Partner, der Geschäfte mit dem US-Militär tätigte, kommerzielle Aktivitäten mit Anthropic durchführen.
Präsident Donald Trump äußerte sich ebenfalls in den sozialen Medien, nannte die Führung des Unternehmens „linke Spinner“ und wies alle Bundesbehörden an, die Nutzung von Anthropic-Produkten nach einer sechsmonatigen Auslaufphase einzustellen.
Anthropic erklärte, es sei „zutiefst betrübt“ über die Entscheidung und kündigte an, die Einstufung gerichtlich anzufechten. Das Unternehmen gab an, noch keine direkte Kommunikation vom Kriegsministerium oder dem Weißen Haus bezüglich des Verhandlungsstatus erhalten zu haben.
OpenAI agiert schnell: Ein Deal ist perfekt
Innerhalb weniger Stunden nach dem Blacklisting von Anthropic kündigte OpenAI-CEO Sam Altman am späten Freitagabend (Eastern Time) an, dass sein Unternehmen eine Einigung mit dem Kriegsministerium erzielt habe, um seine KI-Modelle im geheimen Netzwerk des Pentagons einzusetzen.
„Heute Abend haben wir eine Einigung mit dem Kriegsministerium erzielt, um unsere Modelle in deren geheimen Netzwerk einzusetzen“, schrieb Altman auf X. „Bei all unseren Interaktionen zeigte das DoW tiefen Respekt für Sicherheit und den Wunsch, partnerschaftlich zusammenzuarbeiten, um das bestmögliche Ergebnis zu erzielen.“
Altman räumte intern bei einer Vollversammlung ein, dass der Deal „definitiv überstürzt“ sei und dass „die Optik nicht gut aussehe“ – verteidigte die Entscheidung jedoch als notwendig, um eine gefährliche Konfrontation zwischen der Regierung und der KI-Branche zu deeskalieren.
Drei rote Linien: Was OpenAI erlaubt und was nicht
OpenAI veröffentlichte einen detaillierten Blogbeitrag, in dem die Bedingungen und Schutzmaßnahmen seines Abkommens dargelegt wurden. Das Unternehmen legte drei nicht verhandelbare rote Linien fest:
- Keine massenhafte inländische Überwachung – OpenAI-Technologie darf nicht zur Überwachung von US-Bürgern in großem Umfang eingesetzt werden.
- Keine autonomen Waffen – Die Modelle dürfen nicht zur Steuerung von Waffensystemen ohne menschliche Aufsicht verwendet werden.
- Keine hochriskanten automatisierten Entscheidungen – Dazu gehören Systeme im Stil von Sozialkrediten oder gleichwertige automatisierte Bewertungsmechanismen.
OpenAI behauptet, dass seine Vereinbarung durch die Verwendung eines mehrschichtigen Durchsetzungsansatzes weiter geht als jeder frühere Vertrag über den Einsatz geheimer KI, einschließlich des ursprünglichen Vertrags von Anthropic: Cloud-only-Bereitstellung (keine Edge-Bereitstellung), ein interner „Sicherheitsstapel“, den die Regierung nicht außer Kraft setzen kann, freigegebenes OpenAI-Personal, das in den Betrieb eingebunden ist, und starke vertragliche Formulierungen.
Altman erklärte, dass die Regierung zugestimmt habe, OpenAI nicht zu zwingen, eine Weigerung eines Modells zu überbrücken, wenn dieses eine Aufgabe ablehnt.
Reaktion der Branche und Überprüfung
Der Deal zog sofort Lob und Kritik auf sich. Mehr als 60 OpenAI-Mitarbeiter und 300 Google-Mitarbeiter hatten bereits zu Beginn der Woche einen offenen Brief unterzeichnet, in dem sie ihre Arbeitgeber aufforderten, die Position von Anthropic zu unterstützen.
Kritiker stellten Fragen zu den tatsächlichen Schutzmaßnahmen des Vertrags. Mike Masnick von Techdirt argumentierte, der Deal „erlaube absolut inländische Überwachung“, basierend auf dem Verweis auf die Executive Order 12333, die die Sammlung von Informationen außerhalb der US-Grenzen regelt – aber bekanntermaßen auch Daten über amerikanische Bürger erfasst.
Katrina Mulligan, Leiterin der nationalen Sicherheitspartnerschaften bei OpenAI, widersprach: „Die Bereitstellungsarchitektur ist wichtiger als die Vertragssprache“, schrieb sie auf LinkedIn und argumentierte, dass die Cloud-only-API-Bereitstellung sicherstelle, dass Modelle auf Infrastrukturebene nicht für Überwachungszwecke umfunktioniert werden könnten.
Marktsignal: Claude überholt ChatGPT
In einer bemerkenswerten Marktentwicklung überholte Anthropic's Claude am Samstag, dem 1. März 2026, OpenAI's ChatGPT in den Ranglisten des Apple App Store – ein mögliches Zeichen der öffentlichen Sympathie für Anthropic's härtere Haltung bei KI-Sicherheitsleitplanken.
Was passiert als Nächstes?
OpenAI hat das Kriegsministerium öffentlich aufgefordert, die gleichen Vertragsbedingungen auf alle KI-Unternehmen, einschließlich Anthropic, auszudehnen, um den breiteren Konflikt zu deeskalieren. Altman äußerte die Hoffnung, dass der Deal als Modell für eine verantwortungsvolle Zusammenarbeit zwischen Regierung und KI dienen würde und nicht als Keil, der die Branche spaltet.
Anthropic seinerseits bereitet rechtliche Schritte vor und setzt sich weiterhin für die Wiederaufnahme in staatliche Aufträge ein. Die Situation ist zum Montag, dem 2. März 2026, weiterhin fließend.