Anthropic vs 五角大楼:一场关乎AI公司生存权的法律豪赌
Anthropic vs 五角大楼:一场关乎AI公司生存权的法律豪赌
下周二,一场可能重新定义AI行业与政府关系的法庭听证会即将开庭。一边是Anthropic——Claude的创造者、AI安全的旗手;另一边是五角大楼——全球最大的国防采购机构。
赌注不只是一份合同,而是一个根本性的问题:一家AI公司有没有权利拒绝军方的要求,同时不被定性为”供应链风险”?
事件脉络
故事的起点是Anthropic在2025年做出的一个有原则但在商业上代价巨大的决定:拒绝向五角大楼提供Claude用于某些军事场景。Anthropic的立场基于其”负责任使用政策”——Claude不能被用于武器系统的决策、目标选定或杀伤力评估。
五角大楼的反应迅速而严厉:将Anthropic列入”供应链风险”清单。这个标签的实际效果是:联邦政府机构在采购AI服务时会”绕过”Anthropic。考虑到美国联邦政府是全球最大的IT买家之一,这等于关上了Anthropic一扇至关重要的收入大门。
更深层的信号是威慑性的:如果你拒绝为军方服务,你就是”风险”。 这不仅影响Anthropic,也向所有AI公司发出了警告。
Trump政府最新提交的法院简报明确支持五角大楼的立场,认为”在国家安全领域,政府有权评估和限制不合作的技术供应商”。
与此同时,约150名退休联邦和州法官提交了法庭之友简报支持Anthropic,认为将”拒绝合作”等同于”供应链风险”开创了一个危险先例——这可能被用来强迫任何技术公司为军方服务。
化学武器专家的红队测试
在准备法庭辩护的过程中,Anthropic披露了一个引人注目的细节:他们聘请了化学武器和爆炸物领域的专家对Claude进行红队测试。
测试的目的是证明Claude在设计上无法被用于大规模杀伤性武器的研发——即使有人试图绕过安全限制。测试报告(部分内容已提交法院)显示,Claude在接收到化学武器合成的相关提示时,不仅拒绝提供信息,还会主动标记和记录这类请求。
这是一个聪明的法律策略:Anthropic不仅在说”我们不想被军方用”,还在证明”我们的产品被设计成不能被滥用”。 如果Claude确实在技术上无法辅助大规模杀伤性武器的开发,那么五角大楼将其列为”供应链风险”的理由就更加站不住脚——一个主动限制自身危险能力的公司,怎么会是”风险”?
法律论点的核心分歧
双方的法律论证围绕几个核心分歧展开:
分歧一:政府采购的自由裁量权
五角大楼的立场:政府在国防采购中拥有广泛的自由裁量权,包括将不合作的供应商标记为风险。这是国家安全的正常行使。
Anthropic的反驳:自由裁量权不等于惩罚权。将一家公司标记为”供应链风险”,实质上是因为该公司行使了合法的商业选择权(选择不参与某些军事应用)。这构成了政府对私营企业的报复性行为。
分歧二:”供应链风险”的定义边界
五角大楼:供应链风险包括”依赖可能不稳定或不可靠的供应商”。Anthropic拒绝合作的行为证明了其”不可靠”。
Anthropic:供应链风险应限于实际的安全威胁(如公司被外国政府控制、存在后门、数据泄露历史等),而不能扩展到”不愿意签合同”。否则,任何公司拒绝政府的任何要求都可能被标记为”风险”。
分歧三:AI安全政策的合法性
五角大楼(隐含立场):在国家安全面前,公司的自我约束政策不能成为拒绝合作的理由。
Anthropic:AI安全研究和负责任使用政策是受第一修正案保护的言论自由和商业选择。政府不能因为一家公司选择了更保守的安全政策就惩罚它。
OpenAI的趁虚而入
时机巧妙得令人浮想联翩——就在Anthropic与五角大楼对簿公堂之际,OpenAI宣布通过AWS向美国政府机构销售AI服务,涵盖机密和非机密工作。
OpenAI的声明没有直接提及Anthropic,但潜台词再明显不过:“他们不愿意做的,我们愿意做。”
这产生了一个竞争动力学的微妙变化:如果合作军方 = 获得联邦合同 + 市场信号正面,不合作 = 被标记为风险 + 失去联邦市场,那么Anthropic的”有原则立场”在商业上变成了竞争劣势。
长期来看,这可能导致AI安全标准的”逐底竞争”——谁更愿意放松限制,谁就能拿到更多政府合同。这恰恰是Anthropic一直试图避免的行业趋势。
150名退休法官的声音
约150名退休联邦和州法官联名提交法庭之友简报支持Anthropic,这个数字本身就发出了强烈的信号。
退休法官群体通常极为谨慎地参与商业诉讼。他们的介入说明这个案件已经超越了商业纠纷的范畴,触及了法治的核心原则——政府权力的边界。
简报的核心论点是:如果政府可以通过”供应链风险”标签来惩罚不合作的私营企业,这将产生一个寒蝉效应,使所有技术公司在面对政府要求时不敢说”不”。这不仅危害商业自由,更将削弱民主社会对政府权力的制衡。
一位签署简报的退休联邦法官在接受采访时说:”这个案件不是关于AI。它是关于一个根本性的宪法问题:私营企业有没有权利拒绝政府的商业要求,而不被贴上’威胁’的标签?”
对AI行业的长远影响
无论法庭做出什么裁定,这个案件都将对AI行业产生深远影响:
如果Anthropic赢: AI公司的自主权得到法律确认。企业可以基于自身的安全政策选择性地拒绝特定应用场景,而不必担心政府报复。这对AI安全研究是一个积极信号。
如果五角大楼赢: 所有AI公司都将面临一个新的现实——拒绝与军方合作可能导致被列入”风险”清单,失去广泛的联邦市场机会。”负责任AI”从一种竞争优势变成一种商业负担。
无论谁赢: AI公司与政府的关系已经永久改变了。”保持距离”不再是一个选项——AI公司必须主动管理与政府的关系,制定清晰的政策红线,并准备好为这些红线付出法律和商业代价。
结语:安全的代价
Anthropic选择了一条艰难的路:在AI公司普遍追求增长和市场扩张的时候,坚持说”有些事我们不做”。
这种立场的代价正在变得越来越高。失去联邦合同、被标记为”风险”、竞争对手趁虚而入——每一项都是实打实的商业损失。
但Anthropic赌的是一个更长期的叙事:当AI成为真正的通用技术、当AI安全从行业话题变成公共议题、当公众开始要求AI公司为自己的产品负责时——那些曾经主动限制自身能力、拒绝不当使用的公司,将拥有最珍贵的资产:信任。
下周二的听证会不会给出所有答案。但它已经清晰地提出了问题——在AI时代,安全是一种选择还是一种义务?如果是选择,政府有权惩罚不同的选择吗?
这些问题的答案,将塑造AI行业的未来十年。
参考资料
- Anthropic 负责任使用政策与五角大楼”供应链风险”清单事件 — 综合多来源报道,2026-03-18
- OpenAI 宣布通过 AWS 向美国政府机构销售 AI 服务 — 2026-03-18
- Trump 政府法院简报支持五角大楼立场 — 2026-03-18
- 约 150 名退休联邦和州法官提交法庭之友简报支持 Anthropic — 2026-03-18