Anthropic 將美國政府告上法庭:史無前例的AI安全對決內幕,可能重塑科技產業

March 10, 2026
Anthropic
6 min

新聞摘要

加州舊金山 — 2026 年 3 月 9 日(美國東部夏令時間)

Anthropic,全球領先的人工智能公司之一,也是 Claude AI 模型開發商,於週一對川普政府、國防部以及十幾個其他聯邦機構提起兩項聯邦訴訟。此法律行動旨在挑戰政府前所未有的決定,將這家總部位於舊金山的 AI 公司標記為「對國家安全的供應鏈風險」—— 這一標籤歷史上僅保留給與外國敵對勢力有關聯的公司。

導火線:兩週對峙

Anthropic 與五角大廈之間的衝突在過去兩週內迅速升級。爭議的核心在於其執行長 Dario Amodei 拒絕允許該公司的 Claude AI 模型在沒有限制的情況下使用——特別是針對全自主武器系統和對美國公民進行大規模國內監控。Amodei 於二月與國防部長 Pete Hegseth 會面,希望達成協議,但談判公開破裂。

2 月 27 日,川普總統在社交媒體上發文,指示所有聯邦機構「立即停止使用 Anthropic 的所有技術」,並將該公司標籤為「激進左翼、覺醒公司」。同日,Hegseth 部長宣布 Anthropic 將被正式指定為供應鏈風險,並進一步聲明「任何與美國軍方做生意的承包商、供應商或合作夥伴,不得與 Anthropic 進行任何商業活動。」

正式的指定於 2026 年 3 月 4 日(美國東部標準時間)正式確認,使 Anthropic 成為歷史上第一家獲得此分類的美國公司。

訴訟:兩條戰線,一個訊息

Anthropic 提起了兩項獨立的訴訟——一項在美國加州北區聯邦地區法院,另一項在美國華盛頓特區巡迴上訴法院——各自針對政府行動的不同方面。這份長達 48 頁的訴狀將政府的舉動描述為「前所未有且非法」。

這些文件提出了三個核心法律論點。首先,聯邦政府因 Anthropic 行使受第一修正案保護的、關於公共事務的言論自由而進行報復——特別是其關於 AI 安全的既定立場。其次,川普總統下令所有聯邦機構停止使用 Anthropic 的技術,超出了他的權限。第三,Anthropic 在被施加供應鏈風險指定之前,被剝奪了充分的正當程序。

訴訟中寫道:「憲法不允許政府濫用其龐大的權力來懲罰一家公司發表受保護的言論。」「Anthropic 作為最後的手段,訴諸司法來維護其權利,並阻止行政部門非法的報復行動。」

財務風險

黑名單的經濟後果已經顯現。Anthropic 在其訴狀中警告說,「與聯邦政府的合同已經被取消」,並且「數億美元」的近期收入面臨風險。該公司預計 2026 年收入約為 140 億美元,擁有 500 多名客戶每年為 Claude 支付至少 100 萬美元。其最近的估值為 3800 億美元。

除了政府合同,該公司擔心供應鏈風險的指定——即使僅限於五角大廈相關工作——正在使其更廣泛的商業關係受到質疑。

行業反應:競爭對手表示支持

在一種罕見的競爭對手 AI 實驗室之間的團結姿態中,來自 OpenAI 和 Google DeepMind 的數十名科學家和研究人員週一以個人身份提交了一份「法庭之友」簡報,支持 Anthropic。該組織認為,供應鏈風險的指定可能會損害美國在 AI 領域的競爭力,並壓制關於該技術負責任發展的重要公開辯論。

值得注意的是,OpenAI——可以說是 Anthropic 的最大競爭對手——在政府懲罰 Anthropic 僅數小時後,就與五角大廈達成了自己的協議。然而,OpenAI 也公開表示,他們不同意將 Anthropic 指定為供應鏈風險,並說:「一個美好的未來將需要政府與 AI 實驗室之間真正深入的合作。」

五角大廈的立場

國防部官員堅持認為,私營公司不能決定美國政府如何在戰爭和戰術行動中部署技術。五角大廈堅持要求在「任何合法用途」上擁有使用 AI 的完全靈活性,認為 Anthropic 的限制可能會危及美國士兵在戰場上的生命。針對訴訟,國防部發言人僅表示,該機構不對訴訟中的事項發表評論。

白宮發言人 Liz Huston 在一份聲明中表示:「總統和戰爭部長正在確保美國英勇的戰士擁有他們成功所需的適當工具,並將確保他們永遠不會被任何大型科技公司領導人的意識形態衝動所挾持。」

Claude 仍在服役——即使在伊朗衝突期間

令人啼笑皆非的是,CBS 新聞和 CNBC 報導稱,即使在正式的黑名單生效後,五角大廈仍在持續使用 Claude 參與美國和以色列與伊朗有關的軍事行動。華爾街日報也報導稱,Claude 之前曾被用於軍事行動,包括情報評估和識別伊朗目標,以及導致委內瑞拉領導人尼古拉斯·馬杜羅被捕的行動。

Anthropic 承認其與國家安全承包商(包括 Palantir)在數據處理、趨勢識別和支持政府決策方面的合作——他們表示這項工作符合道德界限。

後續發展

Anthropic 正在尋求禁令救濟,以阻止 Hegseth 的供應鏈風險命令,並要求其被宣布為「武斷、反覆無常、濫用職權且違反法律」。該公司還表示,其尋求司法審查的決定並不排除與政府進一步對話。

一位 Anthropic 發言人表示:「尋求司法審查並不改變我們利用 AI 保護國家安全的長期承諾,但這是保護我們的業務、客戶和合作夥伴的必要步驟。我們將繼續通過所有途徑尋求解決方案,包括與政府對話。」

此案的結果很可能不僅為 Anthropic,也為整個 AI 行業樹立一個重要的先例——決定政府在迫使科技公司移除安全護欄方面的權力有多大,以及企業在 AI 上的道德承諾是否能與國家安全需求並存。