Auf der schwarzen Liste, aber immer noch im Einsatz: Wie Claude KI Amerikas Iran-Angriff unterstützte, während sie vom Pentagon verboten war
Zusammenfassung der Nachrichten
In einer der folgenreichsten Demonstrationen künstlicher Intelligenz in der modernen Kriegsführung wurde das KI-Modell Claude von Anthropic vom US-Zentralkommando (CENTCOM) während der gemeinsamen US-israelischen Militärkampagne gegen den Iran – mit dem Codenamen „Roaring Lion“ und „Operation Epic Fury“ – eingesetzt, obwohl das Weiße Haus dessen Nutzung Stunden zuvor formell verboten hatte.
Was Claude auf dem Schlachtfeld tat
Berichten von The Wall Street Journal, Axios und CBS News zufolge nutzte das US-Militär Claude für drei Kernfunktionen: Geheimdienstbewertung, Zielidentifizierung und Simulation von Kampfszenarien. In den ersten 24 Stunden der Angriffe, die am Samstag, dem 28. Februar 2026 (ET), begannen, traf die USA rund 1.000 iranische Ziele – ein Tempo, das laut Militäranalysten ohne KI-gestützte Planung operativ unmöglich gewesen wäre.
Claude, integriert in eine klassifizierte Zielerfassungsplattform, die von Palantir entwickelt und auf dem Top-Secret-Cloud-Dienst von Amazon Web Services gehostet wurde, verarbeitete riesige Mengen eingehender Daten – Drohnenaufnahmen, Funkabhörungen, Satellitenbilder und menschliche Geheimdienstinformationen –, um hochwertige Ziele zu lokalisieren, zu priorisieren und abzugleichen, darunter iranische Militäranlagen, Führungszentralen und strategische Infrastruktur. Berichten zufolge führte das System sogar vorläufige rechtliche Überprüfungen durch, um die Einhaltung des Völkerrechts zu bewerten, bevor es Angriffe empfahl.
Zu den berichteten Ergebnissen der Operation gehörte die Tötung des Obersten Führers des Iran, Ayatollah Ali Khamenei, dessen Standort durch CIA-Geheimdienstinformationen bestätigt wurde, die „hochpräzise“ Positionsdaten lieferten, die Israel zusammen mit seinen eigenen Vorbereitungen nutzte, um einen Angriff auf eine seltene Versammlung hochrangiger iranischer Beamter in einem Regierungsgebäude im Zentrum von Teheran durchzuführen.
Das Paradoxon: Verboten, aber immer noch im Einsatz
Der Einsatz erfolgte unter außergewöhnlichen politischen Umständen. Am Freitag, dem 27. Februar 2026 (ET), ordnete der US-Verteidigungsminister Pete Hegseth an, Anthropic als „Risiko für die nationale Sicherheit in der Lieferkette“ einzustufen, was alle Auftragnehmer, Lieferanten und Pentagon-Partner effektiv vom kommerziellen Geschäftsverkehr mit dem Unternehmen ausschloss. Streitpunkt war die Weigerung von Anthropic, ethische Einschränkungen aus Claude zu entfernen – insbesondere Schutzmaßnahmen, die das Modell daran hindern, vollständig autonome tödliche Waffensysteme zu unterstützen oder massenhafte inländische Überwachung von US-Bürgern zu ermöglichen.
Trotz des Verbots war Claudes Integration in klassifizierte Militärsysteme so tiefgreifend, dass das Pentagon es nicht rechtzeitig trennen konnte. Mehrere Verteidigungsquellen teilten CBS News und Defense One mit, dass der Ersatz von Claudes Fähigkeiten mindestens drei Monate dauern würde.
„Das Pentagon forderte umfassendere Rechte zur Nutzung von Claude ‚für alle gesetzlichen Zwecke‘“, erklärten Quellen, die mit dem Vertragsstreit vertraut sind, aber Anthropic lehnte ab. Das Ergebnis war ein bemerkenswertes Paradoxon: Ein vom US-Regierung offiziell auf die schwarze Liste gesetztes KI-Tool trieb gleichzeitig eine der komplexesten Militäroperationen des 21. Jahrhunderts an.
Claudes Rolle: Entscheidungsunterstützung, keine Autonomie
Berichte in mehreren Medien stellten sorgfältig klar, dass Claude keine Waffensysteme autonom steuerte oder eigenständig tödliche Entscheidungen traf. Vielmehr fungierte es als hochgeschwindigkeits-Entscheidungsunterstützungstool – es synthetisierte Geheimdienstinformationen, modellierte Ergebnisse, simulierte Angriffsabläufe und präsentierte Empfehlungen an menschliche Bediener, die die endgültige Autorität behielten. Professor Craig Jones von der Newcastle University bemerkte, dass KI-generierte Empfehlungen nun „schneller als der menschliche Verstand“ alternative Optionen verarbeiten können, wodurch die traditionelle „Kill Chain“ von Tagen oder Wochen auf Sekunden komprimiert wird.
Es wurde auch berichtet, dass Claude eine Rolle bei der Operation im Januar 2026 spielte, die zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro führte, was darauf hindeutet, dass seine militärische Integration der Iran-Kampagne vorausging.
Anthropic's Position
In einer am Samstag, dem 1. März 2026 (ET), veröffentlichten Erklärung teilte Anthropic mit, dass es klargestellt habe, dass es „alle gesetzlichen Nutzungen von KI für die nationale Sicherheit unterstützt“. Das Unternehmen bestätigte oder dementierte die Beteiligung seiner Technologie an den Iran-Angriffen nicht öffentlich. Anthropic's CEO Dario Amodei hatte erst am 19. Februar 2026 (IST) auf dem AI Impact Summit in Neu-Delhi gesprochen, wo die Diskussionen über KI-Governance und -Sicherheit im Vordergrund standen.
Analysten debattieren nun, ob die US-Regierung ihre „Risiko in der Lieferkette“-Einstufung rückgängig machen wird – angesichts der Tatsache, dass das Militär Claude derzeit nicht ersetzen kann – oder ob sie sich verstärken und einen Vertrag an einen weniger prinzipientreuen Konkurrenten vergeben wird. Wie ein Kommentator es formulierte, wäre die Zerstörung eines der sicherheitsbewusstesten KI-Labore des Landes, weil es sich weigerte, ethische Grenzen zu entfernen, in der Spieltheorie „pure Dummheit“.
Der Anbruch der KI-gesteuerten Kriegsführung
Die Iran-Angriffe sind zur ersten groß angelegten öffentlichen Demonstration KI-gesteuerter Kriegsführung der Welt geworden. Claudes Rolle – wie umstritten, wie paradox sie auch sein mag – markiert einen Wendepunkt. KI ist keine zukünftige Fähigkeit mehr, die für das Schlachtfeld evaluiert wird. Sie ist bereits da und prägt das Tempo, die Präzision und die Politik moderner Konflikte.