Anthropic vs 五角大楼:当 AI 公司拒绝成为「听话的军事工具」
2026年3月23日,《纽约客》发表了1篇重磅调查报道,详细揭露了人工智能公司Anthropic与特朗普政府之间一场正在进行的角力。五角大楼要求Claude模型成为军事系统的核心组件,Anthropic坚决抵制。这不是一场普通的政企合同谈判,而是人工智能时代关于”谁有权决定智能如何被使用”的宪法性博弈,其结果将深刻影响全球每1家从事人工智能研发的公司与政府之间的权力边界。
1份被拒绝的合同背后:安全承诺遭遇国家意志
据《纽约客》三月23日刊载的长篇调查报道,特朗普政府在2025年底向Anthropic提出了1份覆盖多个军事应用场景的合同,核心要求是将Claude模型作为”听话的军事工具”嵌入国防部的决策支持体系。合同涉及3个核心场景——情报数据分析与综合、后勤供应链优化以及战场态势感知辅助(来源:纽约客,2026年3月23日)。
Anthropic首席执行官达里奥·阿莫迪的回应是直截了当的拒绝。这里需要强调”直截了当”的分量——他没有说”我们需要更多时间进行伦理评估”,没有说”让我们先做1个6个月的安全审计”,而是给了1个硬邦邦的”不”字。在硅谷的历史上,面对美国联邦政府这个全球最大的技术采购方,1家市值数100亿美元的科技公司公开选择对抗的案例屈指可数。上一次如此高调的拒绝,还要追溯到2018年谷歌退出”Project Maven”军事人工智能合同——但那次的导火索是41000名员工的集体抗议信和多位顶尖研究人员的离职威胁,而非创始人主动做出的战略决策(来源:纽约时报,2018年6月1日)。
理解阿莫迪拒绝的背景至关重要。Anthropic自2021年从OpenAI分裂创立以来,就把”人工智能安全”作为公司存在的根本理由。达里奥和妹妹丹妮拉之所以离开OpenAI,正是因为对该公司在安全问题上日益商业化的态度感到不安。2025年12月发布的《负责任扩展政策》第3版中,Anthropic明确写入了”军事应用排除条款”,禁止将Claude用于任何可能直接导致人员伤亡的系统。这不是1条可有可无的附加条款——它是整个公司品牌叙事的基石(来源:Anthropic《负责任扩展政策》第3版,2025年12月)。
但政府方面的法律团队有完全不同的解读。他们的立场是:1家私营企业自行制定的”政策”——无论多么崇高——不能凌驾于国家安全需求之上。围绕这一法律论点,一场关于技术公司自主权边界的法理辩论正在华盛顿悄然展开。
五角大楼的逻辑链条:为什么他们理直气壮
站在五角大楼的立场审视这个问题,他们的逻辑链条不仅清晰,而且在法律和地缘政治层面都相当有力。
首先也是最直接的论点:国防部提出的3个应用场景——情报数据分析、后勤优化和态势感知——在技术本质上都是信息处理任务。情报分析是对多源数据的综合研判,后勤优化是对供应链数据的最优化计算,态势感知是对实时信息流的结构化呈现。这些任务与Claude已经在华尔街、咨询公司和医疗机构中提供的分析服务并无根本区别。1位匿名国防部官员在接受《纽约客》采访时的质疑一针见血——”你们可以帮高盛分析市场风险数据,却不能帮美国国防部分析安全威胁数据?这条线画在哪里,凭什么由你们1家公司来画?”(来源:纽约客,2026年3月23日)。
其次是地缘竞争的硬现实。中国在军事人工智能领域的投入已经从2023年的约200亿美元增长到2025年的估计350亿美元,年复合增长率超过30%(来源:战略与国际研究中心人工智能政策简报,2025年9月)。中国的人工智能头部企业——百度、华为、商汤——不存在”拒绝为政府服务”的讨论空间,军民融合是国家战略的核心组成部分。如果美国最顶尖的人工智能公司纷纷以伦理为由拒绝参与军事应用,美国在人工智能军事领域的技术优势将在5到10年内被显著侵蚀。对于1个国防战略制定者来说,这不是可以接受的风险。
第3也是最具法律强制力的武器:《DPA (Defense Production Act)》。特朗普政府的法律团队已经在内部研究是否可以援引这部法律来强制Anthropic提供技术支持。《DPA (Defense Production Act)》赋予美国总统在国家安全紧急情况下要求私营企业优先执行政府合同的权力。这部法律上一次大规模使用是在新冠疫情期间——2020年,特朗普政府援引该法强制通用汽车生产呼吸机,强制30余家企业生产口罩和个人防护设备(来源:CRS《DPA (Defense Production Act)》概述报告,2024年)。如果政府将人工智能军事应用定性为”国家安全紧急需求”,《DPA (Defense Production Act)》在法律上完全可以绕过Anthropic的自愿性政策。
Anthropic的多维计算:远比”和平主义”复杂
阿莫迪的拒绝表面上看是1个伦理立场的声明,但深入剖析会发现,这是1个精密的多维计算——涉及商业定位、技术架构、人才竞争和长期博弈4个层面。
从商业维度看,Anthropic的核心客户群体是企业市场——金融、法律、医疗和咨询行业的高端机构客户。这些客户选择Claude而非竞品的1个关键差异化因素正是”安全承诺”的可信度。2026年3月的市场数据显示,73%的新企业客户首次购买人工智能服务时选择了Claude——这个比例的背后,很大程度上是Anthropic”安全优先”品牌定位的溢价效应(来源:企业支出分析平台数据,2026年3月)。一旦Anthropic接受军事合同的消息传开,这个品牌溢价面临严重侵蚀风险。在欧洲市场尤其如此——《欧盟人工智能法案》的实施正在加强欧洲企业对人工智能供应商伦理资质的审查,1家接受美国军方合同的人工智能公司可能会被部分欧洲客户直接拉入黑名单。
从技术架构维度看,Claude的”宪法人工智能”框架在设计层面就将”拒绝协助潜在伤害行为”作为硬编码约束。这不是1个可以轻松关闭的功能开关。为军事应用创建1个移除安全限制的特殊版本,意味着要维护两条完全独立的产品线——1条有安全护栏的商业版本和1条无安全护栏的军事版本。维护成本是一方面,更大的风险在于泄露。一旦”无安全护栏版Claude”的存在被外界知晓——无论是通过泄密、黑客攻击还是前员工爆料——整个安全叙事将在一夜之间崩塌。
从人才竞争维度看,Anthropic的研究团队是公司最核心的资产。顶尖的人工智能安全研究者选择加入Anthropic而非谷歌深度思维或OpenAI,很大程度上正是因为Anthropic的安全承诺。2018年谷歌退出Project Maven的直接原因就是顶级研究人员的集体抗议。如果Anthropic接受军事合同,类似的人才流失几乎是必然的——这些人不会转投其他科技巨头的军事项目,而是可能流向学术界或者欧洲的人工智能安全研究机构,造成不可逆的核心能力损失。
从长期博弈维度看,阿莫迪可能在赌1个更大的筹码:如果Anthropic成功抵抗了政府压力,它将创造1个法律和行业先例——私营人工智能公司有权基于伦理考量拒绝国家安全相关合同。这个先例的价值远超任何1份军事合同的金额——它将重塑整个行业面对政府时的谈判地位。
但Anthropic的立场也有显著的脆弱性。公司目前从美国国防高级研究计划局和国家科学基金会获得了大量研究资助,在华盛顿维持着活跃的政策游说团队。完全与政府对抗在长期是不可持续的。更微妙的对比是:其最大竞争对手OpenAI早在2024年1月就已悄然修改使用政策,删除了军事应用禁令(来源:拦截者网站,2024年1月12日)。谷歌虽然退出了Project Maven,但谷歌云仍然维持着与国防部数10亿美元的合同关系。在竞争对手纷纷”务实化”的环境中,Anthropic的道德立场越来越像是一种奢侈品。
我的判断:Anthropic会短期赢但长期妥协
在充分审视了双方的论点和筹码之后,我的判断是:Anthropic在这一轮交锋中大概率能守住底线,但这个胜利是暂时的。
理由如下。短期内特朗普政府不太可能动用《DPA (Defense Production Act)》——因为这将在科技行业引发巨大反弹,在中期选举前制造不必要的政治风险。更可能的结果是政府转向更愿意合作的供应商——OpenAI已经在2024年删除了军事应用禁令,谷歌虽然退出了梅文但保留了其他国防合同。市场上不缺愿意接单的大语言模型供应商。
但长期来看,Anthropic面临1个不断收紧的处境。随着模型能力逼近”对国家安全有决定性影响”的阈值(比如能够自主设计新型材料或预测军事部署的模型),政府干预的合法性和紧迫性都会上升。我预测在2028年之前,Anthropic将以某种”有限度合作”的方式软着陆——比如允许Claude用于”纯防御性”的情报分析但排除”进攻性”应用——实质上是用分类合作来避免全面征用。这种妥协既保全了安全品牌(”我们只做防御性应用”),又缓解了政府压力。
大多数人没看到的:这是一场关于人工智能治理模板的定义之战
这场冲突的深层意义远远超越了1家公司、1份合同甚至1个国家。它正在实时定义1个全球性的治理模板——人工智能公司与国家权力之间的博弈规则。
如果Anthropic成功守住了底线,每1家面临类似压力的人工智能公司都可以指着这个先例说”如果他们可以对五角大楼说不,我们也可以对我们的政府说不”。这对于全球人工智能治理格局的影响将是巨大的——它证明私营部门可以在军事应用问题上保持独立判断,而不是无条件服从国家意志。
如果Anthropic最终被《DPA (Defense Production Act)》强制征用或者在持续压力下妥协,后果同样深远但方向相反。它将证明”人工智能安全承诺”只是商业营销包装——当国家机器启动时毫无抵抗力。这对于过去五年蓬勃发展的全球人工智能安全运动将是致命打击:如果最坚定的安全倡导者都守不住防线,那整个运动的可信度将烟消云散。
欧洲联盟已经在密切关注事态发展。布鲁塞尔的政策圈正在讨论1个关键问题——如果美国的人工智能公司最终被迫服务军事目的,这是否进一步证明欧洲需要发展自己完全独立的”主权人工智能”生态系统,以确保不依赖于可能被武器化的美国技术?欧盟人工智能法案的实施委员会已经在2026年2月的内部讨论中将此议题列为优先关注事项(来源:欧盟人工智能法案实施委员会备忘录,2026年2月)。
中国方面的观察同样值得玩味。在社交媒体平台上,不少中国评论者以讽刺的口吻评论此事:”看到了吧——他们连自己最好的人工智能公司都说服不了为政府服务——这就是所谓自由体制的代价。”这种叙事虽然是政治化的,但它确实触及了1个真实的张力:在人工智能军事竞争中,能够强制调动所有国内技术资源的政府是否比尊重企业自主权的政府更有效率?答案在短期和长期可能截然不同——短期看,强制动员确实更快;但长期看,自愿参与的创新生态系统通常比强制征用的系统更具创造力和可持续性。
历史棱镜与未来走向
科技公司与政府的张力从不是新鲜事。从IBM在二战期间与多国政府的争议性合作,到美国电报电话公司在冷战期间与国家安全局的全面配合,再到微软员工抗议全息透镜军事合同——每1个历史案例都说明,技术能力与伦理约束之间的张力从未被真正”解决”过,它只是随着技术的进步而变得更加尖锐、更加根本。
人工智能的特殊之处在于它前所未有的通用性。1把枪有明确的功能边界——它是用来射击的。一架战斗机有明确的使用场景——它是用来空战的。但1个大语言模型是真正的通用系统——同1个模型,同一组参数,可以帮诗人写14行诗,也可以帮情报分析师综合卫星图像特征;可以协助医生进行罕见病诊断,也可以帮军事策划人员模拟冲突场景。这种极端的通用性意味着”军事用途”和”民用用途”之间的分界线本质上就是模糊的、可争辩的、无法通过技术手段清晰划定的。
Anthropic正试图用1份企业政策来画这条线。但在1个人工智能能力呈指数级增长、地缘竞争日趋白热化的世界里,这条线能守多久?如果下一代人工智能模型的能力达到了”对国家安全有决定性影响”的水平——比如能够独立设计新型材料、预测对手军事部署或者管理关键基础设施——还有哪家公司敢说”不”?
这才是Anthropic与五角大楼之争最根本的追问:在人工智能的世界里,谁才是最终的决定者——创造技术的公司,还是掌握权力的国家?
Anthropic的答案暂时是”公司可以说不”。但这个答案的保质期,取决于人工智能的能力增长速度和地缘竞争的激化程度。也许在2026年,1家公司还有说不的空间。到了2030年,这个空间可能已经被压缩到不存在。
参考资料
- The Fight Over Claude: How Anthropic Defied the Pentagon — 纽约客, 2026年3月23日
- Anthropic Responsible Scaling Policy v3.0 — Anthropic, 2025年12月
- China’s Military AI Spending Trends — 战略与国际研究中心, 2025年9月
- Google Employees Protest Maven Project — 纽约时报, 2018年6月1日
- OpenAI Quietly Removes Military Use Ban — 拦截者网站, 2024年1月12日
- Defense Production Act: An Overview — CRS, 2024年
- EU AI Act Implementation Committee Memo — 欧盟数字战略委员会, 2026年2月