被列入黑名單但仍在運作:儘管被五角大廈禁用,Claude AI 如何助力美國對伊朗的襲擊
新聞摘要
在現代戰爭中,人工智能最為關鍵的一次展示,美國中央司令部(CENTCOM)在美國與以色列聯合對伊朗的軍事行動中部署了 Anthropic 的 Claude AI 模型。此次行動代號為「咆哮雄獅」和「史詩之怒行動」,儘管白宮在數小時前已正式禁止使用。
Claude 在戰場上的作用
根據《華爾街日報》、《Axios》和 CBS 新聞的報導,美軍將 Claude 用於三個核心功能:情報評估、目標識別和戰鬥情景模擬。在 2026 年 2 月 28 日(美國東部時間)星期六開始的最初 24 小時打擊中,美軍約摧毀了 1,000 個伊朗目標——軍事分析人士表示,沒有人工智能輔助規劃,這種速度在操作上是不可能實現的。
Claude 被整合到 Palantir 開發的機密目標鎖定平台中,並託管於 Amazon Web Services 的頂級機密雲端。它處理了海量的輸入數據——無人機畫面、無線電截聽、衛星圖像和人力情報——以定位、優先排序和交叉比對高價值目標,包括伊朗軍事資產、領導人住所和戰略基礎設施。據報導,該系統甚至在建議進行打擊前,進行了初步的法律審查,以評估是否符合國際法。
此次行動的已知成果之一是擊斃了伊朗最高領袖阿亞圖拉·阿里·哈梅內伊。其位置通過中央情報局(CIA)提供的「高保真度」位置數據得到確認,以色列利用這些數據並結合自身準備,在德黑蘭中部的一個政府建築群內,針對一次罕見的高級伊朗官員集會發動了打擊。
悖論:被禁但仍在運行
此次部署發生在非同尋常的政治背景下。2026 年 2 月 27 日(美國東部時間)星期五,美國國防部長皮特·赫格斯命令將 Anthropic 列為「國家安全供應鏈風險」,實際上禁止所有承包商、供應商和五角大廈合作夥伴與該公司進行商業活動。爭議的焦點在於 Anthropic 拒絕從 Claude 中移除道德限制——特別是那些阻止該模型支持全自主致命武器系統或啟用美國公民大規模國內監控的保護措施。
儘管被禁,Claude 已深度整合到機密軍事系統中,以至於五角大廈無法及時將其分離。多個國防消息人士告訴 CBS 新聞和 Defense One,更換 Claude 的功能至少需要三個月時間。
「五角大廈要求擁有更廣泛的權利,以便『出於所有合法目的』使用 Claude,」熟悉合同糾紛的消息人士解釋道,但 Anthropic 拒絕了。結果是一個顯著的悖論:一個被美國政府正式列入黑名單的人工智能工具,同時卻在為 21 世紀最複雜的軍事行動之一提供動力。
Claude 的角色:決策支持,而非自主
多家媒體的報導都謹慎地澄清,Claude 並未自主控制武器系統或獨立做出致命決定。相反,它充當了一個高速決策支持工具——綜合情報、模擬結果、推演打擊序列,並向保留最終權威的人類操作員提出建議。紐卡斯爾大學的 Craig Jones 教授指出,人工智能生成的建議現在「比人類思維處理替代選項的速度更快」,將傳統的「殺傷鏈」從數天或數週壓縮到數秒。
據報導,Claude 還在 2026 年 1 月導致委內瑞拉總統尼古拉斯·馬杜羅被捕的行動中發揮了作用,這表明其軍事整合早於伊朗行動。
Anthropic 的立場
在 2026 年 3 月 1 日(美國東部時間)星期六發布的一份聲明中,Anthropic 表示已明確表示「支持人工智能在國家安全領域的所有合法用途」。該公司並未公開證實或否認其技術參與了伊朗的打擊行動。Anthropic 的首席執行官 Dario Amodei 在 2026 年 2 月 19 日(印度標準時間)最近一次出席新德里人工智能影響峰會時,曾就人工智能治理和安全問題發表了演講。
分析人士現在正在爭論美國政府是否會推翻其「供應鏈風險」的指定——鑑於軍方目前無法替代 Claude——還是會加倍施壓,將合同開放給一個原則性較差的競爭對手。正如一位評論員所說,為了拒絕移除道德限制而壓制該國最注重安全的 AI 實驗室之一,從博弈論的角度來看,是「純粹的愚蠢」。
人工智能驅動戰爭的黎明
伊朗的打擊行動已成為世界上首次大規模公開展示人工智能驅動的戰爭。Claude 的角色——無論其爭議性如何,無論其悖論如何——都標誌著一個轉折點。人工智能不再是正在為戰場評估的未來能力。它已經在那裡,塑造著現代衝突的節奏、精確度和政治。