五角大楼选择OpenAI而非Anthropic,AI战争权力辩论达到临界点
OpenAI与五角大楼达成秘密人工智能协议,此前特朗普封锁了Anthropic
背景:人工智能领域政治动荡的一周
2026年2月23日至28日这一周,成为人工智能行业历史上最具戏剧性的时期之一。其核心是美国国防部(DoD)——特朗普政府已将其正式更名为“战争部”——与领先的人工智能公司之间,就先进人工智能模型在秘密军事环境中的部署条款展开的一场高风险对峙。
五角大楼一直在敦促人工智能公司允许其模型用于“所有合法目的”,这一广泛的授权引起了多家前沿实验室的警报。Anthropic,即Claude模型系列的开发者,划定了明确的界限:其技术不会用于大规模国内监控或全自主武器系统。
Anthropic被列入黑名单:一项历史性认定
2026年2月28日星期五(美国东部时间),国防部长皮特·赫格塞斯采取了非同寻常的举动——正式将Anthropic认定为**“对国家安全的供应链风险”**。这项认定通常保留给与外国敌对势力有关联的公司,但具有严重的实际后果:立即生效,任何与美国军方有业务往来的承包商、供应商或合作伙伴,都不得与Anthropic进行任何商业活动。
唐纳德·特朗普总统也在社交媒体上发声,称该公司领导层是“左翼疯子”,并指示所有联邦机构在六个月的逐步淘汰期后停止使用Anthropic的产品。
Anthropic对此表示“深感悲痛”,并宣布打算在法庭上对该认定提出质疑。该公司表示,尚未收到战争部或白宫关于谈判状态的直接沟通。
OpenAI迅速行动:协议达成
在Anthropic被列入黑名单的数小时内,OpenAI首席执行官萨姆·奥特曼于周五晚间(美国东部时间)宣布,该公司已与战争部达成协议,将在五角大楼的秘密网络中部署其人工智能模型。
奥特曼在X上写道:“今晚,我们与战争部达成协议,将在其秘密网络中部署我们的模型。在我们所有的互动中,战争部都表现出对安全的深刻尊重,并渴望合作以实现最佳结果。”
奥特曼在一次全员会议上向内部承认,该协议“绝对仓促”,并且“形象不佳”——但他辩称,此举对于缓和政府与人工智能行业之间危险的对抗是必要的。
三条红线:OpenAI允许和不允许的内容
OpenAI发布了一篇详细的博客文章,概述了其协议中包含的条款和保护措施。该公司列出了三条不可谈判的红线:
- 禁止大规模国内监控——OpenAI技术不得用于大规模监控美国公民。
- 禁止自主武器——模型不得在无人监督的情况下用于指挥武器系统。
- 禁止高风险自动化决策——这包括类似社会信用体系或同等自动化判断机制。
OpenAI声称,其协议比以往任何秘密人工智能部署合同(包括Anthropic的原始合同)都更进一步,采用了多层级执行方法:仅限云端部署(无边缘部署),政府无法覆盖的内部“安全堆栈”,部署到运营中的已获准的OpenAI人员,以及强有力的合同条款。
奥特曼表示,如果模型拒绝执行某项任务,政府已同意不会强迫OpenAI覆盖该拒绝。
行业反应和审查
该协议立即引起了赞扬和批评。本周早些时候,超过60名OpenAI员工和300名谷歌员工签署了一封公开信,敦促他们的雇主支持Anthropic的立场。
批评者对合同的实际保护措施提出了质疑。Techdirt的迈克·马斯尼克认为,该协议“绝对允许国内监控”,因为它引用了管辖美国境外情报收集的第12333号行政命令——但该命令众所周知会捕获美国公民的数据。
OpenAI国家安全合作伙伴关系主管卡特琳娜·穆利根反驳道:“部署架构比合同语言更重要,”她在LinkedIn上写道,并认为仅限云端的API部署确保了模型在基础设施层面无法被重新用于监控。
市场信号:Claude超越ChatGPT
在令人瞩目的市场发展中,Anthropic的Claude于2026年3月1日星期六在苹果应用商店排名中超越了OpenAI的ChatGPT——这可能表明公众对Anthropic在人工智能安全护栏方面采取更强硬立场的同情。
接下来会发生什么?
OpenAI公开呼吁战争部将相同的合同条款扩展到包括Anthropic在内的所有人工智能公司,以缓和更广泛的冲突。奥特曼表示希望该协议能成为负责任的政府-人工智能合作的典范,而不是分裂行业的楔子。
Anthropic方面,正在准备法律行动,并继续争取恢复政府合同。截至2026年3月2日星期一,情况仍不明朗。