Anthropic 将美国政府告上法庭:史无前例的AI安全对决内幕,或将重塑科技行业

2026-03-10
Anthropic
6 min

新闻摘要

加利福尼亚州旧金山 — 2026年3月9日(美国东部时间)

Anthropic,作为全球领先的人工智能公司之一,也是Claude AI模型的开发者,于周一对特朗普政府、国防部以及十几个其他联邦机构提起了两项联邦诉讼。此次法律行动旨在挑战政府一项前所未有的决定,即将这家总部位于旧金山的AI公司列为“对国家安全的供应链风险”——这一标签历来是为与外国敌对势力有关联的公司保留的。

导火索:两周对峙

Anthropic与五角大楼之间的冲突在过去两周内迅速升级。争端的焦点在于首席执行官Dario Amodei拒绝允许该公司Claude AI模型在不受限制的情况下使用——特别是用于全自主武器系统和对美国公民进行大规模国内监控。Amodei于2月会见了国防部长Pete Hegseth,希望达成一项协议,但谈判公开破裂。

2月27日,特朗普总统在社交媒体上发文,指示所有联邦机构“立即停止使用Anthropic的所有技术”,并将该公司斥为“激进左翼、觉醒公司”。同日,Hegseth部长宣布,Anthropic将被正式指定为供应链风险,并进一步声明“任何与美国军方做生意的承包商、供应商或合作伙伴不得与Anthropic进行任何商业活动”。

正式的指定于2026年3月4日(美国东部标准时间)正式确认,Anthropic成为美国历史上第一家获得此分类的公司。

诉讼:两线作战,一个信息

Anthropic提起了两项独立的诉讼——一项在美国加州北区地方法院提起,另一项在美国华盛顿特区巡回上诉法院提起——每项诉讼都针对政府行动的不同方面。这份长达48页的诉状将政府的举动描述为“前所未有且非法”。

此次提交的诉讼提出了三个核心法律论点。首先,联邦政府因Anthropic行使受第一修正案保护的、关于公共重要事项的言论——特别是其关于AI安全的既定立场——而对其进行报复。其次,特朗普总统下令所有联邦机构停止使用Anthropic的技术,超出了他的授权范围。第三,Anthropic在被施加供应链风险指定之前,被剥夺了充分的正当程序。

诉讼中写道:“宪法不允许政府滥用其巨大的权力来惩罚一家公司发表受保护的言论。”“Anthropic别无选择,只能诉诸司法,以维护其权利,并阻止行政部门非法的报复行动。”

财务风险

黑名单的经济后果已经显现。Anthropic在其诉讼文件中警告称,“与联邦政府的合同已被取消”,并且“数亿美元”的近期收入面临风险。该公司预计2026年收入约为140亿美元,其中500多名客户每年至少为Claude支付100万美元。其最近的估值为3800亿美元。

除了政府合同,该公司担心供应链风险的指定——即使仅限于与五角大楼相关的工作——也对其更广泛的商业关系产生了怀疑。

行业反应:竞争对手表示支持

在一场不同寻常的竞争对手AI实验室之间的团结表现中,来自OpenAI和Google DeepMind的数十名科学家和研究人员周一以个人身份提交了一份支持Anthropic的法庭之友意见书。该团体认为,供应链风险的指定可能会损害美国在AI领域的竞争力,并压制关于该技术负责任发展的重要公开辩论。

值得注意的是,OpenAI——可以说是Anthropic最大的竞争对手——在政府惩罚Anthropic后仅数小时就与五角大楼达成了自己的协议。然而,OpenAI也公开表示,它不同意将Anthropic指定为供应链风险,并表示:“一个美好的未来需要政府与AI实验室之间进行真正而深入的合作。”

五角大楼的立场

国防部官员坚称,私营公司不能决定美国政府如何在战争和战术行动中部署技术。五角大楼坚持在“任何合法用途”上拥有使用AI的全部灵活性,认为Anthropic的限制可能会危及美国士兵在战场上的生命。针对此次诉讼,国防部发言人简单地表示,该部门不对正在诉讼中的事项发表评论。

白宫发言人Liz Huston在一份声明中表示:“总统和战争部长正在确保美国勇敢的战士拥有他们成功所需的适当工具,并将保证他们永远不会被任何大型科技公司领导人的意识形态冲动所挟持。”

Claude仍在被使用——即使在伊朗冲突期间

具有讽刺意味的是,CBS新闻和CNBC报道称,尽管正式的黑名单已经生效,五角大楼在涉及伊朗的持续的美国和以色列军事行动中仍在继续使用Claude。华尔街日报也报道称,Claude此前曾被用于军事行动,包括在情报评估和识别伊朗目标方面,以及在导致委内瑞拉领导人尼古拉斯·马杜罗被捕的行动中。

Anthropic承认其与Palantir等国家安全承包商在数据处理、趋势识别和支持政府决策方面的合作——该公司表示,这项工作符合道德界限。

后续发展

Anthropic正在寻求禁令救济,以阻止Hegseth的供应链风险命令,并要求将其宣布为“任意、反复无常、滥用职权且违反法律”。该公司还表示,其寻求司法审查的决定并不排除与政府进一步对话的可能性。

Anthropic的一位发言人表示:“寻求司法审查并不改变我们利用AI保护国家安全的长期承诺,但这是保护我们的业务、我们的客户和我们的合作伙伴的必要步骤。我们将继续通过一切途径寻求解决方案,包括与政府对话。”

此案的结果很可能不仅为Anthropic,也为整个AI行业设定一个重要的先例——它将决定政府在迫使科技公司移除安全护栏方面拥有多大的权力,以及企业在AI方面的道德承诺是否能与国家安全需求共存。