虽被列入黑名单但仍在运行:Claude AI 如何在被五角大楼禁用期间为美国对伊朗的打击提供支持

2026-03-07
Claude
5 min

新闻摘要

在现代战争中,人工智能最重大的应用之一是,美国中央司令部(CENTCOM)在美以联合军事行动中部署了Anthropic公司的Claude人工智能模型,该行动针对伊朗,代号为“咆哮的狮子”和“史诗之怒行动”,尽管白宫在数小时前已正式禁止其使用。

Claude在战场上的作用

根据《华尔街日报》、《Axios》和CBS新闻的报道,美军在Claude的三个核心功能上进行了部署:情报评估、目标识别和战场情景模拟。在2026年2月28日(美国东部时间)周六开始的最初24小时打击中,美军袭击了约1000个伊朗目标——军事分析人士称,如果没有人工智能辅助规划,这种打击节奏在操作上是不可能实现的。

Claude被集成到一个由Palantir开发的、托管在Amazon Web Services的绝密云上的秘密目标平台中,它处理了海量的传入数据——无人机画面、无线电截获、卫星图像和人力情报——以定位、优先排序和交叉比对高价值目标,包括伊朗军事资产、领导人住所和战略基础设施。据报道,该系统甚至在建议打击前进行了初步的法律审查,以评估其是否符合国际法。

行动报告的成果之一是击毙了伊朗最高领袖阿亚图拉·阿里·哈梅内伊,其位置通过中央情报局的情报得到确认,该情报被描述为提供了“高保真度”的位置数据,以色列利用这些数据以及自身的准备工作,在德黑兰市中心的一个政府大院内,对一次高级伊朗官员的罕见集会进行了打击。

悖论:被禁但仍在运行

此次部署发生在非同寻常的政治背景下。2026年2月27日(美国东部时间)周五,美国国防部长皮特·赫格塞斯下令将Anthropic指定为“国家安全的供应链风险”,实际上禁止所有承包商、供应商和五角大楼合作伙伴与该公司进行商业活动。争论的焦点在于Anthropic拒绝从Claude中剥离道德限制——特别是那些阻止该模型支持全自主致命武器系统或实现大规模国内监控美国公民的保护措施。

尽管被禁,Claude与秘密军事系统的集成程度如此之深,以至于五角大楼无法及时将其分离。多位国防消息人士告诉CBS新闻和Defense One,替换Claude的能力至少需要三个月。

“五角大楼要求获得更广泛的权利,以便‘出于所有合法目的’使用Claude,”熟悉合同纠纷的消息人士解释道,但Anthropic拒绝了。结果是一个显著的悖论:一个被美国政府正式列入黑名单的人工智能工具,同时却在驱动21世纪最复杂的军事行动之一。

Claude的角色:决策支持,而非自主

多家媒体的报道都谨慎地澄清,Claude并未自主控制武器系统或独立做出致命决定。相反,它作为一个高速决策支持工具——综合情报、模拟结果、模拟打击序列,并将建议提交给保留最终决定权的人类操作员。纽卡斯尔大学的克雷格·琼斯教授指出,人工智能生成的建议现在“比人脑处理替代选项的速度更快”,将传统的“杀伤链”从几天或几周压缩到几秒钟。

据报道,Claude还在2026年1月导致委内瑞拉总统尼古拉斯·马杜罗被捕的行动中发挥了作用,这表明其军事集成早于伊朗行动。

Anthropic的立场

在2026年3月1日(美国东部时间)周六发布的声明中,Anthropic表示已明确表示其“支持人工智能在国家安全领域的所有合法用途”。该公司未公开证实或否认其技术参与了伊朗的打击行动。Anthropic的首席执行官Dario Amodei最近于2026年2月19日(印度标准时间)在印度新德里举行的AI影响峰会上发表了讲话,会上人工智能治理和安全方面的讨论尤为突出。

分析人士现在正在争论美国政府是否会撤销其“供应链风险”的指定——考虑到军方目前无法替换Claude——还是会加倍下注,将合同开放给一个原则性较差的竞争对手。正如一位评论员所说,为了拒绝移除道德限制而压制该国最注重安全的人工智能实验室之一,从博弈论的角度来看,“纯属愚蠢”。

人工智能驱动战争的黎明

伊朗的打击行动已成为世界上首次大规模公开展示人工智能驱动的战争。Claude的角色——无论其如何有争议,如何充满悖论——都标志着一个转折点。人工智能不再是正在为战场评估的未来能力。它已经存在,并正在塑造现代冲突的节奏、精度和政治。