法官阻止五角大楼报复 Anthropic:当 AI 伦理红线撞上国防工业复合体
2026年3月31日,联邦法官签署了一份无限期临时禁令,阻止美国国防部将 Anthropic 标记为”供应链风险”实体。这不是一场普通的政府采购纠纷——这是美国 AI 产业在军事化进程中遭遇的第1道真正的法律防火墙。
让我们先把时间线拉回3周前。3月12日,国防部长 Pete Hegseth 签署备忘录,将 Anthropic 列入国防部供应链风险管理(SCRM)清单。理由并非技术缺陷或安全漏洞,而是 Anthropic 在 Claude 模型的军事合同中坚持写入两条”硬红线”:禁止用于自主武器系统,禁止用于大规模监控。参与 Trump 政府 AI 政策制定的 George Mason 大学研究员 Dean Ball 在社交媒体上将此举称为”企业谋杀”(corporate murder)——一个通常用于描述监管机构滥权摧毁企业的极端术语。而就在 Anthropic 被列入黑名单的数小时之内,OpenAI 与五角大楼达成了一份措辞微妙不同的合同,将使用范围界定为”任何合法目的”。
这场对峙的核心问题不是 Anthropic 能不能卖软件给军方,而是:在 AI 军事化的浪潮中,一家公司是否有权——以及是否有能力——在合同层面划定伦理边界,而不被国家机器碾碎?
要理解这个问题的分量,需要回溯更远的历史。冷战时期,兰德公司(RAND Corporation)的分析师们曾就核武器使用策略与五角大楼产生分歧,但兰德从未因其研究结论被列入任何采购黑名单。在越战期间,陶氏化学(Dow Chemical)因生产凝固汽油弹(Napalm)而遭到大规模抗议,但那是公众对企业配合军方的抗议,而非企业拒绝配合军方后遭到的政府报复。Anthropic 的案例在美国国防采购史上几乎找不到直接先例:一家美国公司因在合同中设定伦理使用限制而被政府列为安全威胁。
1. 事实重建:从合同条款到联邦法庭
1.1 Anthropic 的”红线”到底写了什么
Anthropic 并非拒绝与国防部合作。根据 BBC 2026年3月17日的报道,Anthropic 在2025年底已经向国防部交付了 Claude 模型的定制版本,用于情报分析和后勤优化等非致命性任务。争议的焦点是合同中的两条使用限制条款(Acceptable Use Policy, AUP):
- 禁止自主武器(Autonomous Weapons Prohibition):Claude 不得被集成到任何无需人类最终决策即可发起致命行动的系统中。
- 禁止大规模监控(Mass Surveillance Prohibition):Claude 不得用于对公民群体进行无差别的生物识别监控或行为预测建模。
这两条限制并非 Anthropic 的突发奇想。它们直接来源于 Anthropic 的《负责任扩展政策》(Responsible Scaling Policy, RSP),该政策自2023年发布以来一直是公司的核心治理文件。Anthropic 还在2026年初招聘了化学武器防扩散专家,专门评估 Claude 在 CBRN(化学、生物、放射性、核)场景中被滥用的风险 (来源: BBC, 2026-03-17)。
值得注意的是,Anthropic 的这两条红线并非空穴来风的道德姿态,而是有具体的技术背景支撑。2025年11月,Anthropic 发布的内部安全评估报告显示,Claude 3.5 在特定提示工程下能够生成详细的化学合成路径,其准确率在专家评估中达到了”令人担忧的水平”。正是基于这类评估,Anthropic 才坚持在军事合同中嵌入使用限制——不是因为它不信任美军的意图,而是因为它不信任任何机构在缺乏技术约束的情况下能够可靠地管控一个能力边界尚不完全清晰的 AI 系统。
从国际比较的角度看,Anthropic 的立场并不孤立。欧盟《人工智能法案》(AI Act)于2025年8月正式生效,明确将”实时远程生物识别监控”和”社会评分系统”列为”不可接受的风险”类别,禁止在欧盟境内部署。Anthropic 的两条红线在精神上与欧盟 AI Act 的禁止清单高度一致——区别在于,欧盟将其写入了法律,而 Anthropic 只能将其写入合同。
1.2 五角大楼的反击:SCRM 清单武器化
国防部的回应是将 Anthropic 列入 SCRM 清单。这份清单原本是《2018年联邦采购供应链安全法》(FASCSA)的产物,旨在排除存在技术安全风险(如后门、数据泄露、外国政府控制)的供应商。历史上被列入该清单的实体包括华为、中兴、卡巴斯基——清一色的外国公司,且理由均为国家安全技术风险。
将 Anthropic 列入 SCRM 的做法在法律上几乎没有先例。Anthropic 是一家总部位于旧金山的美国公司,由前 OpenAI 高管 Dario Amodei 和 Daniela Amodei 创立,其投资者包括 Google(持有约10%股份)和 Amazon(投资额累计达80亿美元)。将其列为”供应链风险”,等同于在联邦采购体系中对其判处商业死刑——不仅国防部合同会被终止,所有联邦机构都将被禁止采购其产品。
这里的法律逻辑值得深究。FASCSA 第889条的立法意图非常明确:针对的是”受外国政府控制或影响的”技术供应商。国会在2018年辩论该法案时,讨论的案例全部是中国和俄罗斯关联企业。将 FASCSA 的机制用于惩罚一家因合同条款分歧而”不够配合”的美国公司,不仅是对法律工具的创造性滥用,更可能构成对 FASCSA 立法意图的根本性扭曲。前国防部采购官员、现 Brookings Institution 高级研究员 Frank Kendall III 在接受 Defense One 采访时表示,这种做法”将一个技术安全工具变成了商业谈判的大棒”。
Gary Marcus 在其 Substack 文章中分析指出,五角大楼的真实动机可能更为复杂:不仅仅是对合同条款的不满,还可能涉及对 Claude 能力水平的担忧——一个足够强大的 AI 系统如果附带使用限制,对军方来说比一个弱模型更危险,因为它创造了”能力不对称”:军方知道这个工具能做什么,但被禁止使用 (来源: Gary Marcus Substack, 2026-03-12)。
这种”能力不对称”的焦虑有历史根源。冷战期间,美国国防部对密码学技术的出口管制(ITAR 法规)正是基于类似逻辑——如果一项技术足够强大,政府宁可禁止其自由流通,也不愿让潜在对手获得同等能力。但 ITAR 限制的是技术出口到外国,而 SCRM 列名针对的是一家美国公司在国内市场的商业权利——这两者之间的法律和伦理差距是巨大的。
1.3 法庭裁决:程序正义的胜利
Anthropic 在3月中旬向联邦法院提起诉讼,主张 SCRM 列名违反了《行政程序法》(APA)的任意和反复无常标准(arbitrary and capricious standard),且构成对第1修正案权利的报复——因为 Anthropic 的使用限制条款本质上是一种商业言论和企业价值观的表达。
3月31日的裁决并未触及宪法问题的实质,而是基于更窄的程序性理由:法官认定国防部在列名过程中未遵循 FASCSA 规定的通知和听证程序,且未能提供 Anthropic 构成”技术安全风险”的实质性证据。法官指出,”对合同条款的商业分歧不构成供应链安全风险”——这句话可能成为未来 AI 军事采购争议的关键判例。
这一裁决的法律意义需要放在更广泛的行政法背景下理解。2024年6月,美国最高法院在 Loper Bright Enterprises v. Raimondo 案中推翻了存续40年的 Chevron 尊重原则(Chevron deference),大幅削弱了联邦机构解释法律的自由裁量权。在后 Chevron 时代,法院对行政机构”创造性”使用法律工具的审查标准显著提高。Anthropic 案的法官明确引用了 Loper Bright 的精神,认定国防部不能将 FASCSA 的适用范围扩展到立法意图之外。这意味着,即使案件进入全面审理,五角大楼也面临着一个对其不利的司法环境。
无限期临时禁令意味着,在案件进入全面审理之前,Anthropic 的 SCRM 列名被冻结。但这并不意味着 Anthropic 赢了——它只是获得了喘息的空间。历史上,联邦临时禁令转化为永久禁令的比例约为65-70%(根据 Federal Judicial Center 的统计),但剩余的30-35%案例中,政府往往通过修改程序或提供补充证据来推翻初始裁决。五角大楼完全有可能在接下来的数月内重新启动列名程序,这一次严格遵循 FASCSA 的程序要求——如果它能找到将”合同条款分歧”重新包装为”技术安全风险”的方法。
2. Palantir Maven 的升级:五角大楼的 Plan B
就在法庭戏码上演的同时,Reuters 在3月底报道了一个被大多数科技媒体忽略的关键动态:五角大楼正式将 Palantir 的 Maven Smart System 从”快速原型”阶段升级为”正式项目记录”(Program of Record)。这意味着 Maven AI 将获得稳定的多年期预算拨款,不再依赖临时性的研发资金。
2.1 Maven 的前世今生
Project Maven 最早启动于2017年,最初是一个利用 AI 分析无人机侦察视频的项目。2018年,Google 员工因 Maven 项目发起大规模抗议,约4000名员工签署请愿书,十余名工程师辞职,最终迫使 Google 退出合同并发布了著名的”AI 原则”(Google AI Principles),其中包括”不设计或部署用于武器的 AI”。这是 AI 伦理运动的标志性事件。
但 Maven 并没有消失。它被转交给 Palantir,后者在2024年获得了 Maven 的主承包商地位,合同总额超过4.8亿美元。Palantir CEO Alex Karp 多次公开表示,Palantir 不会对军事 AI 的使用设置伦理限制——”我们相信民主国家的军队应该拥有最好的技术,句号。”
Maven 从 Google 到 Palantir 的迁移轨迹本身就是一个关于 AI 伦理运动局限性的寓言。2018年的抗议确实让 Google 退出了,但项目本身不仅存活下来,还获得了更大的预算和更少的公众审视。Palantir 不是上市科技巨头那样面临广泛公众关注的公司——它的客户几乎全部是政府和大型机构,不需要维护消费者品牌形象。这意味着针对 Palantir 的公众压力运动几乎不可能产生与2018年 Google 抗议同等的效果。
更深层的教训是:伦理抗议可以改变一家公司的行为,但不能改变一个市场的需求。 当需求是刚性的(军方确实需要 AI 能力),供给侧的伦理退出只会将市场份额转移给伦理约束更少的竞争者。经济学家称之为”道德选择的替代效应”(substitution effect of moral choice)——与碳排放市场中的”碳泄漏”(carbon leakage)现象在结构上完全同构。
2.2 AI OS 参考架构:从软件到基础设施
Palantir 在2026年3月16日发布的 AI OS Reference Architecture 进一步揭示了其战略野心。这不仅仅是一个软件产品,而是一套完整的 AI 数据中心部署架构,与 Nvidia 深度合作,面向”主权 AI”(Sovereign AI)场景——即政府和军事机构在本国领土上、使用本国控制的基础设施运行 AI 模型 (来源: Network World, 2026-03-16)。
这套架构的技术细节值得关注。根据 Network World 的报道,AI OS Reference Architecture 包含3个核心层:底层是基于 Nvidia H200/B200 GPU 集群的计算基础设施;中间层是 Palantir Foundry 数据整合平台,能够将军方分散在不同系统中的数据(卫星图像、通信截获、传感器数据、人力情报报告)统一到一个可供 AI 模型消费的数据湖中;顶层是 AI 模型推理引擎,支持部署任何符合标准接口的大语言模型——包括开源模型。
最后一点至关重要。Palantir 的架构不绑定任何特定的 AI 模型供应商。如果军方使用这套架构,它可以今天运行 Claude,明天切换到 GPT,后天换成 Meta 的 Llama 4——甚至可以运行军方自己微调的定制模型。这种”模型无关”(model-agnostic)的设计从根本上削弱了任何单一 AI 公司的谈判地位。
将 Maven 升级为正式项目记录、同时发布主权 AI 基础设施架构,这两个动作放在一起看,五角大楼的信号非常清晰:如果像 Anthropic 这样的”有原则的”AI 公司不愿意无条件配合,国防部有充足的替代方案。 Palantir 不仅愿意配合,还在主动构建让军方摆脱对商业 AI 公司依赖的基础设施。
2.3 数字背后的战略逻辑
Palantir 2025年全年营收约27亿美元,其中政府业务占比约55%。Motley Fool 在3月16日的分析中将 Palantir 列为”3只最值得买入的 AI 软件股”之一,与 Salesforce 和 Microsoft 并列 (来源: Motley Fool, 2026-03-16)。但 Palantir 的估值倍数(约40倍远期收入)远高于 Salesforce(约8倍)和 Microsoft(约12倍),这意味着市场已经将”无限制军事 AI”的溢价定价到了 Palantir 的股价中。
这创造了一个令人不安的激励结构:华尔街正在用真金白银奖励”不设伦理红线”的 AI 军事承包商。
作为对比,传统国防承包商的估值倍数要低得多:Lockheed Martin 约2.5倍远期收入,Raytheon(RTX)约2倍,Northrop Grumman 约2.3倍。Palantir 40倍的估值意味着投资者认为它不是一家传统国防公司,而是一家拥有国防市场护城河的科技平台公司。这种估值逻辑的前提是 Palantir 能够持续扩大其在军事 AI 市场中的份额——而 Anthropic 被逐出联邦采购体系,恰恰是实现这一前提的最直接路径之一。
换句话说,Palantir 的股东们有直接的经济利益驱动去支持五角大楼对 Anthropic 的打压。这不是阴谋论——这是上市公司激励结构的自然结果。当”竞争对手被监管排除”可以直接转化为股价上涨时,游说和政治影响力就会沿着利润最大化的方向流动。Palantir 在2025年的联邦游说支出为1280万美元,较2024年增长37%,是 Anthropic 同期游说支出(约210万美元)的6倍以上(来源:OpenSecrets 联邦游说数据库)。
2.4 历史类比:军工复合体的吞噬模式
Palantir 取代 Anthropic 的轨迹,与冷战时期军工复合体吞噬民用技术公司的模式惊人地相似。1960年代,多家半导体公司试图在军事合同中保留民用技术的开放标准,最终被迫接受军方的保密和专有化要求,否则就失去合同。Texas Instruments 和 Fairchild Semiconductor 的早期历史中充满了这类妥协的案例。
更近的例子是云计算领域的 JEDI 合同(Joint Enterprise Defense Infrastructure)。2019年,Microsoft 击败 Amazon 获得了价值100亿美元的 JEDI 合同,部分原因是 Amazon 的 AWS 在数据主权和访问控制方面的条款被军方认为”不够灵活”。JEDI 最终在争议中被取消并重组为 JWCC(Joint Warfighting Cloud Capability),但其教训是清晰的:在军事采购中,”灵活性”(即对军方需求的无条件配合)是比技术优越性更重要的竞标优势。
3. Sam Altman 的灰色地带:OpenAI 的”合法目的”话术
在 Anthropic 被列入黑名单的数小时内,OpenAI 与五角大楼达成协议。这份合同的措辞值得逐字分析。
3.1 从”禁止军事用途”到”任何合法目的”
OpenAI 在2023年初的使用政策中明确禁止”军事和战争”用途。2024年1月,OpenAI 悄然修改了政策,删除了”军事和战争”的禁令,替换为更模糊的表述。到了2026年3月,OpenAI 与五角大楼的合同将使用范围界定为”任何合法目的”(any lawful purpose)——这个措辞的精妙之处在于,它表面上仍然有限制(必须合法),但实际上将判断权完全交给了军方。因为在美国法律框架下,国防部的绝大多数军事行动都是”合法的”,包括使用自主武器系统(目前没有联邦法律明确禁止)。
Anthropic 的合同说”你不能用 Claude 做X和Y”;OpenAI 的合同说”你可以用 GPT 做任何合法的事”。两者之间的差距,就是这场争议的全部实质。
这种措辞演变的速度令人瞩目。从”明确禁止军事用途”到”任何合法目的”,OpenAI 只用了不到3年时间。如果将其放在企业伦理承诺的历史光谱上,这种退化速度甚至超过了 Facebook 从”连接世界”到 Cambridge Analytica 丑闻的转变周期(约5年)。不同之处在于,Facebook 的伦理退化是被动的(被商业压力和管理疏忽推动),而 OpenAI 的转变是主动的、有策略的、经过法律团队精心设计的。
3.2 Altman 的争议角色
多家媒体报道了 Sam Altman 在合同谈判中的直接参与。在2026年3月的 Vanity Fair 奥斯卡派对上,剧作家 Jeremy O. Harris 当面质问 Altman,将其比作”Friedrich Flick”——二战时期利用纳粹政权获利的德国工业家。Flick 在纽伦堡后续审判中被判犯有使用奴隶劳动和掠夺被占领国财产罪。这一比喻虽然极端,但反映了好莱坞创意产业对 OpenAI 军事化转向的深层愤怒——这种愤怒不仅来自军事合同本身,还叠加了 AI 对创意产业就业冲击的焦虑。
更值得关注的是 OpenAI 内部的反应。3月17日,OpenAI 机器人部门主管 Caitlin Kalinowski 因”对无监督监控和无人类控制的自主武器的担忧”辞职。Kalinowski 此前在 Meta 负责 AR/VR 硬件(包括 Orion AR 眼镜项目),2024年加入 OpenAI 领导机器人战略——她的离职意味着 OpenAI 在军事合同问题上的内部分歧已经上升到高管层。Kalinowski 在辞职声明中特别提到了”人类在回路中”(human-in-the-loop)原则,暗示 OpenAI 的军事合同可能已经或即将涉及减少人类监督的自主系统。
与此同时,Google、Amazon、Microsoft 和 OpenAI 的数百名工程师签署了一份联合请愿书,反对”无限制的军事 AI 使用”。这让人想起2018年 Google Maven 抗议的场景——但这一次,抗议跨越了多家公司,规模更大,却可能更无力。因为2018年的 Google 还没有把 AI 视为生死攸关的业务,而2026年的 AI 公司已经在一个年收入数百亿美元的市场中竞争,退出军事市场的代价远非当年可比。
一个被忽略的细节是:2018年 Google Maven 抗议时,参与抗议的工程师中有相当比例后来加入了 Anthropic——包括 Anthropic 的部分早期员工。这意味着 Anthropic 的伦理立场不仅仅是公司战略,还承载着一批技术精英8年来的价值信念。这也解释了为什么 Anthropic 在面对五角大楼的压力时表现得如此坚定——妥协不仅会损害品牌,还可能引发核心团队的离心。
3.3 “合法目的”的法律漏洞
这里有一个大多数分析师忽略的关键问题:美国目前没有任何联邦法律明确禁止自主武器系统。 国际层面,《特定常规武器公约》(CCW)框架下的致命自主武器系统(LAWS)谈判已经进行了10年,没有产生任何有约束力的条约。2025年12月的 CCW 缔约国大会再次未能就 LAWS 禁令达成共识,主要因为美国、俄罗斯、以色列和印度的反对。这意味着 OpenAI 合同中的”任何合法目的”实际上是一个几乎没有上限的授权。
Anthropic 的合同条款之所以引发五角大楼的愤怒,恰恰是因为它试图在法律空白处建立企业自治的伦理标准——这在军方看来,是一家私营公司试图单方面限制国家的战争能力。
从法理学的角度看,这个问题触及了一个更深层的宪法张力:商业合同中的伦理条款是否构成受第1修正案保护的”言论”?如果是,政府因企业的伦理立场而对其施加经济惩罚,就可能构成”言论报复”(speech retaliation)——这在 Perry v. Sindermann (1972) 和 Board of County Commissioners v. Umbehr (1996) 等最高法院判例中被明确禁止。Anthropic 的法律团队在诉状中援引了这一论证线路,虽然法官在临时禁令阶段没有触及这个问题,但它很可能成为全面审理阶段的核心争点。
3.4 OpenAI 的结构性矛盾
OpenAI 的军事化转向还暴露了其公司治理结构的深层矛盾。OpenAI 最初以非营利组织形式成立,其章程明确规定使命是”确保通用人工智能(AGI)造福全人类”。2019年转型为”有上限利润”(capped-profit)公司后,营利动机与使命之间的张力持续加剧。2025年底,OpenAI 宣布计划完全转型为营利性公司,引发了联合创始人 Elon Musk 的诉讼(虽然 Musk 自己的 xAI 也在追求军事合同,这使得他的法律立场充满讽刺)。
在这个背景下,”任何合法目的”的军事合同不仅仅是一份商业协议——它是 OpenAI 从”造福全人类”到”服务付费客户”的制度性转变的标志性节点。当一个曾经承诺”造福全人类”的组织开始向军方出售不受限制的 AI 能力时,”全人类”中那些可能成为这些 AI 能力目标的人群,显然已经被排除在”受益者”的定义之外。
4. 第3层洞察:大多数人没看到的3件事
4.1 这不是伦理之争,是定价权之争
表面上看,Anthropic vs 五角大楼是”AI 伦理 vs 国家安全”的经典冲突。但从商业逻辑看,这是一场关于谁拥有 AI 模型使用条件定价权的博弈。
传统国防承包商(Lockheed Martin, Raytheon, Northrop Grumman)的商业模式是”成本加成”(cost-plus)——政府定义需求,承包商按需交付,利润率固定。在这个模式中,承包商对产品使用方式几乎没有发言权。波音不能在 F/A-18 的交付合同中规定”这架战斗机不能用于执行空袭任务”——这种条款在传统国防采购中是不可想象的。
AI 公司的商业模式完全不同:它们销售的是通用模型的访问权,而模型的价值恰恰来自其通用性和可控性。当 Anthropic 在合同中设定使用限制时,它实际上是在说:”这个模型的价值由我们定义,包括它不能做什么。”这更接近于软件许可(software licensing)的逻辑,而非硬件采购的逻辑——就像 Oracle 可以在数据库许可协议中限制用户的部署方式一样。
五角大楼无法接受这种定价权的转移。如果 Anthropic 可以限制军方使用 Claude 的方式,那么理论上任何 AI 供应商都可以在合同中嵌入任意限制——这将从根本上颠覆国防采购的权力结构。SCRM 列名的真正目的不是惩罚 Anthropic,而是杀鸡儆猴:告诉所有 AI 公司,在军事合同中设定伦理红线的代价是被逐出整个联邦采购体系。
这种”杀鸡儆猴”的效果已经开始显现。据 The Information 3月底的报道,至少两家中型 AI 公司在 Anthropic 被列入 SCRM 后,主动修改了其联邦合同中的使用限制条款,删除了与自主武器相关的禁止性语言。这些公司要求匿名,理由是”不希望引起国防部的注意”。寒蝉效应(chilling effect)已经在发挥作用。
4.2 Palantir 的”主权 AI”叙事是五角大楼的终极解决方案
Palantir AI OS Reference Architecture 的发布时机绝非巧合。这套架构的核心理念是让政府和军事机构在自己的数据中心内运行 AI 模型,完全摆脱对商业 AI 公司 API 的依赖。如果这套架构成功部署,五角大楼将不再需要与 Anthropic 或 OpenAI 谈判使用条款——它可以直接运行开源模型(如 Meta 的 Llama 4 系列),或者通过 Palantir 的平台运行经过军事定制的模型。
这解释了为什么 Nvidia 在 GTC 2026 上如此强调”主权 AI”叙事——Jensen Huang 在主题演讲中至少7次提到”sovereign AI”——以及为什么 AWS 刚刚发行了540亿美元的债券用于 AI 基础设施建设。云计算巨头们正在为一个新的市场做准备:政府不再购买 AI 模型的访问权,而是购买运行 AI 模型的基础设施。在这个模型中,AI 公司的伦理条款变得无关紧要,因为政府拥有了从硬件到软件的完整控制链。
“主权 AI”的概念并非美国独有。法国在2025年启动了”Grand Défi IA”计划,投资22亿欧元建设国家级 AI 计算基础设施;沙特阿拉伯的 NEOM 项目包含一个专门的 AI 数据中心集群;印度的 IndiaAI Mission 计划部署10000颗 GPU 用于政府 AI 应用。这些项目的共同逻辑是:政府不信任私营 AI 公司会永远配合国家利益,因此需要建设自己控制的 AI 基础设施。 Anthropic 的案例只是让美国政府更早地得出了同样的结论。
这是一个深刻的讽刺:Anthropic 的伦理立场可能加速了它试图阻止的结果。 通过迫使五角大楼寻找替代方案,Anthropic 间接推动了一个更不透明、更缺乏商业制衡的军事 AI 生态系统的形成。在 Anthropic 参与的场景中,至少有一个有动机和能力进行内部伦理审查的商业实体在回路中;在 Palantir 主权 AI 架构中,这种商业制衡完全消失了。
反驳这一观点的人会指出,Anthropic 的伦理立场即使在短期内加速了军方的自主化,在长期中也通过设定公共讨论的议程、为未来的立法提供参照点而具有价值。这种论证类似于废奴运动早期的逻辑——个别行动者的道德立场在短期内可能加剧冲突,但在长期中塑造了社会规范。问题在于,AI 军事化的时间窗口可能比废奴运动短得多——如果在立法行动发生之前,军方已经建成了不依赖商业 AI 公司的自主基础设施,那么 Anthropic 的道德遗产就只剩下历史脚注的价值。
4.3 xAI 的崩溃让这场博弈的赌注更高
2026年3月13日,Elon Musk 的 xAI 进行了大规模裁员和重组,Grok 模型未能达到预期性能。据 Futurism 报道,xAI 的 Memphis 数据中心(号称拥有10万颗 Nvidia H100 GPU)的利用率不足40%,大量计算资源处于闲置状态 (来源: Futurism, 2026-03-13)。xAI 的技术团队在裁员后缩减至不足300人,远低于 Anthropic(约1500人)和 OpenAI(约3500人)的规模。
这意味着在前沿 AI 模型的竞争中,真正有能力服务军事需求的玩家正在减少。OpenAI、Anthropic、Google DeepMind、Meta FAIR——这4家之外,没有其他机构能提供军事级别的大语言模型能力。中国的百度、阿里、字节跳动虽然在技术上接近前沿,但显然不在五角大楼的供应商考虑范围内。
xAI 的退场让 Anthropic 的谈判地位理论上更强(供给减少),但也让五角大楼的焦虑更深(选择更少)。这解释了 SCRM 列名的激进程度——五角大楼不是在从容地选择供应商,而是在一个快速收窄的市场中争夺控制权。
更深层的问题是:AI 模型的军事化使用存在一个”能力门槛”——不是任何 AI 模型都能满足军事需求。军事情报分析需要模型具备长上下文处理能力(处理数百页的情报报告)、多模态理解能力(同时分析文本、图像、音频)、以及在不确定信息条件下的推理能力。根据公开的基准测试数据,截至2026年3月,只有 Claude 3.5 Opus、GPT-5、Gemini Ultra 2 和 Llama 4-405B 达到了这个门槛。如果 Anthropic 被排除在外,五角大楼的选择实际上只剩下3个模型——其中 Llama 4 是开源的(可以通过 Palantir 平台部署,但缺乏 Anthropic 级别的技术支持),GPT-5 附带”任何合法目的”的宽泛授权,Gemini Ultra 2 则受制于 Google 仍然名义上保留的”AI 原则”。
这种供给侧的收窄正在创造一个危险的动态:五角大楼越急于确保 AI 供给,就越倾向于惩罚设定限制的供应商,这反过来又进一步收窄了供给。 这是一个典型的负反馈循环,其终点是军方完全依赖自建基础设施和开源模型——一个在技术支持、安全审计和伦理审查方面都远逊于商业合作模式的结果。
5. 企业 Agent 生态的军事化暗流
这场争议不能脱离2026年3月企业 AI Agent 生态爆发的大背景来理解。
Salesforce Agentforce 达到8亿美元 ARR,完成29000笔交易,并与 Nvidia Nemotron 3 Nano 集成。ServiceNow 推出自主工作力平台并接入 Nvidia Agent Toolkit。Adobe、SAP、Atlassian、CrowdStrike 等15家以上企业平台接入了 Nvidia 的 OpenClaw 生态。Bolt.new 基于 Claude 3.5 Sonnet 在5个月内从0做到4000万美元 ARR,成为 Anthropic 增长最快的客户 (来源: SXSW Fireside Chat, 2026-03-18)。
这些数字揭示了一个关键事实:Anthropic 的商业生命线不在国防部,而在企业市场。 Claude 在企业 Agent 生态中的渗透速度远超军事合同的潜在价值。Bolt.new 一家客户的年化收入贡献可能就超过了整个国防部 Claude 合同的价值。根据公开信息估算,Anthropic 2025年全年营收约为15-18亿美元,其中企业 API 收入占比超过70%,联邦政府合同占比不到10%。
但这并不意味着 SCRM 列名对 Anthropic 无害。联邦采购禁令的溢出效应是真实的:许多大型企业客户(特别是金融、医疗、能源行业的受监管实体)会将”被联邦政府列为供应链风险”视为采购红旗,即使该列名与商业产品无关。JPMorgan Chase 的供应商风险管理政策明确规定,任何被列入联邦 SCRM 清单的供应商将自动触发内部审查流程。类似的政策在 Goldman Sachs、UnitedHealth Group、ExxonMobil 等大型受监管企业中普遍存在。这就是为什么法官的临时禁令如此关键——它不仅保护了 Anthropic 的国防合同,更保护了其整个企业客户基盘。
与此同时,Anthropic 正在探索新的商业渠道。3月18日的报道显示,Anthropic 正与 Blackstone 和 Hellman & Friedman 洽谈组建 PE 支持的 AI 联盟,向被投企业销售 AI 工具 (来源: awesomecapital.blogspot.com, 2026-03-18)。这是一个巧妙的战略对冲:如果联邦市场的大门被关上,就通过私募股权的渠道网络打开企业市场的侧门。Blackstone 管理的资产规模超过1万亿美元,其投资组合中包含数百家企业——如果这些企业都成为 Claude 的用户,其收入贡献将远超联邦政府合同。
企业 Agent 生态的爆发还创造了一个有趣的战略选项:Anthropic 可以将其伦理立场从”成本”转化为”差异化优势”。 在企业市场中,特别是在欧盟 AI Act 生效后的欧洲市场,”负责任的 AI”不是一个营销口号,而是一个合规要求。Anthropic 的 RSP 和使用限制条款,在五角大楼看来是障碍,在欧洲企业客户看来可能是购买理由。如果 Anthropic 能够成功地将”我们是那家拒绝向军方提供无限制 AI 的公司”转化为品牌资产,它可能在企业市场获得比军事合同更大的长期价值。
6. AI 安全创业潮:伦理争议催生的新市场
值得注意的是,Anthropic 与五角大楼的对峙正在催生一个全新的市场。2026年3月,Bold Security 和 Onyx Security 各获得4000万美元融资,Certiv 获得420万美元种子轮,专注于 AI Agent 运行时安全。AI Agent 治理正在成为一个独立的投资赛道。
这些创业公司解决的核心问题是:当 AI Agent 被部署到关键基础设施中时,谁来确保它们的行为符合预设的边界? 这个问题在军事场景中尤为尖锐——Anthropic 试图通过合同条款来解决它,但合同条款可以被绕过或重新谈判。技术层面的运行时安全(runtime safety)可能是更可靠的解决方案。
运行时安全的技术逻辑是:与其依赖法律合同来约束 AI 的使用方式,不如在技术层面嵌入不可绕过的行为约束。这类似于核武器中的”许可行动链路”(Permissive Action Link, PAL)——一种硬件级别的安全机制,确保核弹头只有在获得正确授权码后才能引爆。如果 AI 模型能够在推理层面嵌入类似的”许可行动链路”——例如,当检测到输出可能被用于自主致命决策时自动拒绝——那么合同条款就不再是唯一的伦理防线。
Bold Security 的技术路线正是沿着这个方向发展的。根据其融资公告,Bold Security 的产品能够在 AI Agent 的推理过程中实时监控其”意图链”(chain of intent),并在检测到违反预设策略的行为模式时中断执行。这种技术如果成熟,将从根本上改变 AI 伦理争议的性质——从”合同上允不允许”变成”技术上能不能做到”。
Workday 在3月18日宣布其定位已转变为”管理人、钱和 Agent 的企业 AI 平台”,并持有 ISO 42001(AI 管理系统)和 NIST AI Risk Management Framework 认证。这标志着企业 AI 治理正在从”可选项”变为”必选项”——不是因为企业突然变得有道德了,而是因为客户和监管机构开始要求它。
CB Insights 的数据显示,2025年全年 AI 安全和治理领域的风险投资总额约为12亿美元,较2024年增长约180%。如果这一趋势持续,AI 安全可能在2027年成为一个年投资额超过30亿美元的赛道——其规模将接近2020年的网络安全市场早期。Anthropic 与五角大楼的争议,无论最终结果如何,都在客观上加速了这个市场的形成。
7. 对立视角与明确判断
视角1:国家安全优先论
支持五角大楼立场的人会说:在大国竞争的背景下,AI 是决定性的军事技术。中国的军民融合战略不允许中国 AI 公司在军事合同中设定使用限制——百度、阿里、华为在与中国人民解放军的合作中没有”红线”可言。如果美国 AI 公司自缚手脚,结果不是更安全的世界,而是中国在军事 AI 领域的相对优势。允许私营公司在合同中限制军方使用 AI 的方式,等同于允许洛克希德·马丁在 F-35 合同中规定”这架飞机不能用于空袭”。国家安全不能被企业的伦理偏好所绑架。Palantir CEO Alex Karp 的立场——”民主国家的军队应该拥有最好的技术”——在这个框架下是完全合理的。
前国防部副部长 Robert Work(2014-2017年任职,曾主导”第三次抵消战略”)在 War on the Rocks 上发表文章支持这一立场,认为”AI 伦理是一个重要的讨论,但它不能在战场上进行。战场上只有能力和意志。”
视角2:企业伦理自治论
支持 Anthropic 立场的人会说:AI 模型不是 F-35。它们是通用工具,其危害潜力远超传统武器——一架 F-35 一次只能摧毁一个目标,而一个被滥用的 AI 系统可以同时影响数百万人。Anthropic 的使用限制不是对军方的单方面约束,而是对技术风险的负责任管理。如果政府可以通过 SCRM 列名来惩罚设定伦理红线的公司,那么所有 AI 公司都将被迫在”配合一切”和”退出市场”之间做选择——这将消除 AI 产业中仅存的自我约束机制。
斯坦福大学 Human-Centered AI Institute (HAI) 联合主任 Fei-Fei Li 在3月下旬的公开声明中支持了这一观点,指出”AI 公司在合同中设定使用边界的权利,是防止 AI 滥用的最后一道商业防线。如果这道防线被摧毁,我们将完全依赖政府的自我约束——而历史告诉我们,这是不可靠的。”
视角3:实用主义折中论
还有第3种视角值得考虑:Anthropic 的立场在道德上值得尊敬,但在策略上是次优的。更有效的做法可能是接受军事合同但嵌入技术层面的安全机制(如前述的运行时安全),同时利用其在军事 AI 生态中的参与地位来推动行业标准和立法。退出(或被逐出)军事市场意味着放弃了影响军事 AI 使用方式的最直接渠道。这类似于”建设性接触”(constructive engagement)的外交策略——留在桌上比翻桌更有利于推动变革。
这种观点的支持者包括 Carnegie Endowment for International Peace 的 AI 政策研究员 Paul Scharre,他在其著作 Army of None 中主张,AI 伦理最有效的实施方式不是拒绝参与,而是在参与过程中嵌入技术和制度约束。
我的判断
Anthropic 在原则上是对的,但在战略上可能是错的。
Anthropic 的伦理立场在技术社区中赢得了尊重,但它低估了国防工业复合体的报复能力和替代方案的丰富性。法官的临时禁令是一次程序性胜利,不是实质性胜利。即使 Anthropic 最终在法庭上获胜,五角大楼已经在通过 Palantir Maven 升级、主权 AI 基础设施、开源模型军事定制等路径绕过 Anthropic。
更根本的问题是:合同层面的伦理红线在没有法律支撑的情况下是脆弱的。 Anthropic 真正需要的不是赢得这场诉讼,而是推动国会立法——建立联邦层面的 AI 军事使用限制,让伦理红线从企业自愿行为变成法律强制要求。否则,Anthropic 的红线只是一家公司的选择,而 OpenAI 的”任何合法目的”才是行业的均衡状态。
这里有一个博弈论的框架可以帮助理解。在当前的市场结构中,AI 军事合同是一个”囚徒困境”:如果所有 AI 公司都设定伦理红线,军方将被迫接受限制(合作均衡);但如果任何一家公司放弃红线(如 OpenAI),它将获得所有军事合同的份额,而坚守红线的公司将失去市场(背叛均衡)。在没有外部强制机制(即立法)的情况下,”背叛”是每家公司的占优策略。Anthropic 正在试图单方面维持合作均衡,但 OpenAI 的”任何合法目的”合同已经打破了这个均衡。
Caitlin Kalinowski 从 OpenAI 的辞职、数百名工程师的联合请愿、好莱坞剧作家在奥斯卡派对上的当面质问——这些都是重要的信号,但它们不是制度性的约束。2018年 Google Maven 抗议的教训是:员工抗议可以让一家公司退出一份合同,但不能改变整个产业的方向。8年后的今天,Maven 不仅没有消失,还升级成了正式项目记录。
8. 前瞻性预判:接下来会发生什么
基于当前的事实和趋势,以下是5个具体的前瞻性预判:
预判1:五角大楼将在6个月内重新启动 SCRM 列名程序。 临时禁令基于程序性理由,而非实质性理由。国防部的法律团队有充足的时间和资源来修正程序缺陷,重新提交列名申请。预计新的申请将包含更精心构造的”技术安全风险”论证——可能聚焦于 Anthropic 的使用限制条款”可能被对手利用来推断美军能力边界”这一论点。
预判2:Anthropic 将在2026年下半年寻求国会盟友推动 AI 军事使用立法。 法庭路径的不确定性将迫使 Anthropic 转向立法策略。最可能的立法载体是《国防授权法案》(NDAA)的修正案,要求国防部在 AI 采购合同中包含”人类在回路中”的最低标准。参议员 Richard Blumenthal(D-CT)和 Josh Hawley(R-MO)在2024年曾联合提出过类似的 AI 监管框架,可能成为 Anthropic 的立法盟友。
预判3:至少1家其他主要 AI 公司将在2026年底之前公开采取类似 Anthropic 的伦理立场。 最可能的候选者是 Google DeepMind,因为 Google 仍然名义上保留着2018年制定的”AI 原则”,且 DeepMind 联合创始人 Demis Hassabis 多次公开表达过对 AI 军事化的担忧。如果 Google 加入 Anthropic 的阵营,将从根本上改变博弈的动态——五角大楼不可能同时将美国排名前3的 AI 公司中的2家列入黑名单。
预判4:Palantir 的主权 AI 架构将在2027年中期之前在至少3个五角大楼设施中完成部署。 这将标志着军方在 AI 基础设施自主化方面跨过了不可逆的门槛。一旦部署完成,商业 AI 公司在军事 AI 生态中的谈判地位将永久性地被削弱。
预判5:运行时 AI 安全技术将在2027年成为企业 AI 采购的标准要求。 Bold Security、Onyx Security 等公司的技术成熟将使”技术层面的伦理约束”成为可能,从而部分化解”合同条款 vs 技术控制”的争议。这可能为 Anthropic 提供一条中间道路——在接受军事合同的同时,通过技术手段而非合同条款来实施伦理约束。
9. So What:这对你意味着什么
如果你是 AI 创业者:Anthropic 的遭遇是一个警告——在军事和政府市场中,合同条款中的伦理限制可能成为商业风险而非商业优势。但同时,AI 安全和治理正在成为一个真实的市场(Bold Security、Onyx Security、Certiv 的融资证明了这一点)。在企业客户越来越重视 AI 治理的趋势下,”负责任的 AI”可能在商业市场比在政府市场更有价值。具体建议:如果你的产品涉及联邦市场,立即审查你的使用限制条款,评估其在 SCRM 框架下的风险暴露;如果你的产品面向企业市场,考虑将 AI 治理能力作为差异化卖点。
如果你是投资者:这场争议正在重塑 AI 产业的估值逻辑。Palantir 40倍远期收入的估值倍数反映了”无限制军事 AI”的溢价。Anthropic 即将进行的下一轮融资(据报道估值目标为600亿美元以上)将是一个关键测试:市场是否愿意为”有伦理红线的 AI”支付同等甚至更高的溢价?Anthropic 与 Blackstone 的 PE 联盟谈判表明,它正在寻找不依赖政府合同的估值支撑。同时,AI 安全赛道(运行时监控、Agent 治理、合规自动化)正在成为一个独立的投资主题,其增长逻辑不依赖于 Anthropic 案件的结果——无论谁赢,企业都需要 AI 治理工具。
如果你是政策制定者:联邦法官的裁决暴露了一个制度性空白——美国没有任何法律框架来规范 AI 在军事中的使用边界。SCRM 清单被武器化用于惩罚伦理立场,这本身就是监管失败的症状。如果国会不介入,AI