90天改写AI安全政治:五角大楼从封杀Anthropic到交易可能的深层博弈
2026年4月21日,Donald Trump在白宫南草坪面对记者时,用了一个意味深长的词评价Anthropic:”shaping up”(在变好)。就在6周前,这家AI公司还被五角大楼正式列为”供应链风险”实体——一个在美国国防采购体系中近乎于”黑名单”的标签。而现在,总统本人公开表示与Anthropic的国防合作”是可能的”(来源: Reuters, 2026-04-21)。
这不是一个简单的政策反转故事。从2026年1月底五角大楼启动对Anthropic的供应链风险评估,到3月正式下达designation,再到4月中旬白宫官员被曝正在绕过黑名单谈判获取Anthropic旗舰模型Mythos的使用权(来源: Axios, 2026-04-16),整个过程不到90天。在这90天里,Trump政府实际上完成了一次对”AI安全政治”的根本性重新定义:AI安全不再是一个技术伦理问题,而是一个可以用来施加商业和政治压力的谈判筹码。
理解这场博弈,需要拆解3个层面:五角大楼供应链风险认定的法律基础为何如此脆弱?Anthropic在技术与商业上的位置为何让五角大楼”离不开”?以及,这一事件如何重塑整个AI产业与美国国家安全机构之间的权力关系?
一、”供应链风险”认定:一把法律上站不住脚的锤子
要理解这场博弈的起点,必须先理解五角大楼动用的武器——”供应链风险”认定(Supply Chain Risk Designation)——到底意味着什么。
根据美国联邦采购法规(Federal Acquisition Regulation, FAR)和国防部补充条款(DFARS),国防部有权将特定供应商认定为”供应链风险”实体。一旦被认定,该实体的产品和服务将被排除在国防部采购范围之外,所有与国防部有合同关系的承包商也被要求审查并可能终止与该实体的合作关系(来源: Mayer Brown, 2026-03)。
这一机制最初设计的目的是应对外国政府(主要是中国和俄罗斯)通过供应链渗透美国国防系统的风险。典型案例包括华为和中兴通讯被排除在联邦采购体系之外。但五角大楼将这一工具对准一家美国本土AI公司——而且是技术能力排名前列的公司——这在历史上几乎没有先例。
法律分析人士对这一认定的依据提出了尖锐质疑。独立法律博客BSKiller在对国防部决定的深度分析中,将其法律基础描述为建立在”推测性的、臆想性的假设”(conjectural, speculative imaginings)之上(来源: BSKiller Blog, 2026-03)。具体而言,五角大楼的供应链风险认定通常需要证明以下至少一项:
- 外国政府控制或影响:供应商受外国政府实质性控制,可能被用于间谍活动或破坏。
- 技术漏洞:产品存在已知的安全漏洞,可能被恶意利用。
- 供应中断风险:供应商的商业模式或财务状况可能导致关键供应中断。
对于Anthropic,一家总部位于旧金山、由前OpenAI高管Dario Amodei和Daniela Amodei创立的美国公司,第1项指控显然缺乏事实基础。Anthropic没有外国政府股东控制的公开记录。至于第2项,Anthropic以其”Constitutional AI”安全框架和业内最严格的模型安全测试流程著称——如果说有哪家AI公司在安全问题上最不可能被指控”存在技术漏洞”,Anthropic恰恰是最不合适的目标。
那么,五角大楼的真正动机是什么?
这就需要回到2025年下半年到2026年初的政治背景。Anthropic在AI安全立法方面的立场——特别是其对加州SB 1047法案及后续联邦AI监管提案的支持态度——与Trump政府”去监管化”的整体议程形成了直接冲突。更重要的是,Anthropic在2025年多次公开表达了对军事应用的谨慎态度,其可接受使用政策(Acceptable Use Policy)对军事和情报领域的应用施加了比竞争对手更严格的限制。
《纽约客》在其深度报道中将这一冲突框架描述为”危险的对齐问题”——不是AI模型的对齐,而是一家AI公司的价值观与当前政治权力之间的对齐(来源: The New Yorker, 2026-04)。五角大楼的供应链风险认定,与其说是基于真实的安全评估,不如说是一种政治施压工具:通过威胁Anthropic的政府业务和更广泛的商业生态系统,迫使其在安全政策和监管立场上做出让步。
这是第一层洞察:供应链风险认定不是安全评估,而是政治谈判的开场白。
二、为什么是Anthropic?技术位置与商业轨迹的双重不可替代性
要理解五角大楼为何在封杀Anthropic仅6周后就开始寻求”交易”,需要认识到Anthropic在AI技术版图中的独特位置。
技术层面:Mythos与前沿能力
Axios在4月16日的报道中披露,白宫官员正在谈判获取Anthropic旗舰模型Mythos的使用权(来源: Axios, 2026-04-16)。这一细节极为关键——它表明五角大楼及更广泛的国家安全机构认为,Mythos具备竞争对手产品无法替代的能力。
在大语言模型(LLM)领域,虽然OpenAI、Google DeepMind、Meta等公司都拥有强大的模型,但Anthropic的Claude系列(以及作为其最新旗舰的Mythos)在几个关键维度上具有差异化优势:
长上下文处理能力:Claude系列模型在处理超长文档方面一直领先,这对于情报分析(需要同时处理数百页报告)和国防规划(需要综合大量技术文档)至关重要。
指令遵循精度:Anthropic的Constitutional AI训练方法产生的模型在精确执行复杂指令方面表现突出,这在军事指挥控制场景中是核心需求。
安全性与可控性的平衡:讽刺的是,Anthropic被五角大楼”封杀”的部分原因——其对安全的执着——恰恰是国防应用最需要的特性。一个在安全边界上更严格的模型,在高风险国防场景中反而更可靠。
商业层面:收入超越OpenAI的信号
根据AI行业分析媒体The AI Corner的报道,Anthropic的年化经常性收入(ARR)已达到30亿美元,超过了OpenAI(来源: The AI Corner, 2026)。这一数据点——如果准确的话——标志着AI行业竞争格局的重大转变。
这意味着几件事:
第1,Anthropic不再是一个”小众安全研究实验室”,而是一个拥有庞大企业客户基础的商业实体。封杀Anthropic不仅影响国防部自身的AI能力,还会波及整个国防承包商生态系统——这些承包商中有许多已经在使用Anthropic的API进行各种非机密工作。
第2,Anthropic的商业成功证明了”安全优先”策略在市场上是可行的。这对Trump政府的叙事构成了挑战——政府一直暗示AI安全限制会阻碍美国的技术竞争力,但Anthropic的收入数据表明,安全和商业成功并不矛盾。
第3,30亿美元的ARR意味着Anthropic拥有足够的商业缓冲来承受政府合同的损失——至少在短期内。这降低了供应链风险认定作为施压工具的有效性,因为Anthropic不会因为失去国防部业务而面临生存危机。
国防市场的规模背景
根据WifiTalents汇编的2026年国防产业统计数据,全球国防市场规模持续增长(来源: WifiTalents, 2026)。在这个背景下,AI正在成为国防支出中增长最快的细分领域之一。五角大楼不仅需要AI来维持对中国和俄罗斯的技术优势,更需要最好的AI。而”最好的AI”在2026年4月这个时间点上,至少部分意味着Anthropic的技术。
这是第二层洞察:五角大楼封杀Anthropic的行为,实际上创造了一个自我矛盾——它以”国家安全”为名排除了一个对国家安全至关重要的技术供应商。这种矛盾在90天内变得不可维持。
三、90天时间线:从封杀到”交易可能”的政治博弈学
让我们重建这90天的关键节点,分析每一步背后的博弈逻辑。
第1阶段:施压(2026年1月底-3月)
五角大楼在2026年1月底启动对Anthropic的供应链风险评估。这一时间点并非偶然——它紧随Trump政府在2026年初发布的一系列行政命令之后,这些命令系统性地撤销了Biden时代的AI安全行政令,并明确将”AI去监管化”作为政策优先级。
对Anthropic的评估可以被解读为对整个”AI安全派”的警告信号:如果你不配合政府的去监管议程,就会面临商业后果。3月份正式下达的供应链风险认定(来源: Mayer Brown, 2026-03)将这一威胁从暗示变为现实。
Mayer Brown律师事务所在其面向政府承包商的分析中指出,这一认定对Anthropic的影响远超国防部直接合同——它要求所有国防部承包商评估自身对Anthropic技术的依赖,并可能需要寻找替代方案(来源: Mayer Brown, 2026-03)。考虑到美国国防承包商生态系统的庞大规模(Lockheed Martin、Raytheon、Northrop Grumman、General Dynamics等巨头及其数千家子承包商),这一”涟漪效应”的潜在影响是巨大的。
第2阶段:僵持与裂缝(2026年3月-4月中旬)
然而,僵持很快出现了裂缝。裂缝来自两个方向:
方向1:技术需求的紧迫性。 美国国家安全机构——不仅是国防部,还包括情报界和国土安全部——对前沿AI能力的需求是真实且紧迫的。中国在AI军事应用方面的快速进展(特别是在自主无人系统和情报分析领域)意味着美国不能承受在AI能力上的任何自我施加的限制。Axios报道的白宫官员绕过黑名单谈判Mythos访问权的事实(来源: Axios, 2026-04-16),直接证明了这种需求的紧迫程度——即使在政治层面封杀了Anthropic,操作层面的国家安全专业人士仍然认为他们需要这项技术。
方向2:法律脆弱性。 正如BSKiller的分析所指出的,供应链风险认定的法律基础存在严重问题(来源: BSKiller Blog, 2026-03)。如果Anthropic选择法律挑战,五角大楼可能面临尴尬的败诉风险。更重要的是,一个被法院推翻的认定将严重削弱这一工具在未来对真正的供应链威胁(如中国技术渗透)中的可信度。
第3阶段:信号释放与交易框架(2026年4月中旬-现在)
Politico在4月17日率先报道了”停战”可能性(来源: Politico, 2026-04-17),随后Axios在4月16日披露了Mythos谈判细节(来源: Axios, 2026-04-16)。这些报道的时间密度——在不到一周内集中释放——本身就是一个信号:双方(或至少一方)在有意通过媒体释放”交易即将达成”的预期。
4月21日,Trump本人的表态将这一信号推向最高级别。他在评价Anthropic时使用的”shaping up”一词值得仔细品味(来源: Reuters, 2026-04-21)。这个词暗示Anthropic正在做出某种改变或让步,以满足政府的期望。同时,Trump明确表示与Anthropic的国防合作”是可能的”(来源: CNBC, 2026-04-21),Washington Examiner进一步报道了”交易仍然可能”的信号(来源: Washington Examiner, 2026-04)。
关键问题是:Anthropic做出了什么让步?
截至本文发布时,双方都没有公开披露具体的谈判条款。但基于公开信息,我们可以推测几个可能的让步方向:
- 修改可接受使用政策:Anthropic可能同意为国防和情报应用创建一个特殊的使用框架,放宽某些限制,同时保留核心安全护栏。
- 监管立场调整:Anthropic可能在联邦AI监管立法上降低公开倡导的力度,或者在具体条款上做出妥协。
- 治理结构变化:Anthropic可能同意在其董事会或顾问委员会中加入政府认可的国家安全专家。
- 数据和模型访问安排:为政府创建专用的、满足安全要求的模型部署环境。
这是第三层洞察——大多数人没有看到的:这90天的博弈本质上是Trump政府建立了一个新的”AI政治经济学”框架。在这个框架中,政府采购准入不再仅仅基于技术和安全评估,而是成为了一种政治忠诚度测试。供应链风险认定被武器化为谈判工具,其目的不是保护供应链安全,而是重新定义AI公司与政府之间的权力关系。
四、对立视角:安全鹰派 vs. 技术务实派
在这场博弈中,存在两种截然对立的视角,它们的冲突定义了未来AI-国防关系的走向。
视角1:安全鹰派——”Anthropic的安全主义是真正的风险”
这一视角认为,Anthropic的AI安全理念——特别是其对模型能力的主动限制和对军事应用的谨慎态度——本身构成了国家安全风险。论证逻辑如下:
- 中国不会因为AI安全顾虑而限制军事AI的发展。如果美国最好的AI公司拒绝为国防服务,美国将在AI军事应用方面落后。
- Anthropic的”安全优先”立场可能被外国对手利用——如果Anthropic的模型在关键军事场景中因安全限制而拒绝执行合法指令,这比模型本身的安全漏洞更危险。
- AI公司不应该拥有单方面决定国家安全技术使用边界的权力。这是民选政府和军事专业人士的职责。
这一视角在Trump政府内部有强大的支持基础,也是供应链风险认定背后的意识形态驱动力。
视角2:技术务实派——”武器化采购准入将摧毁AI创新生态”
这一视角认为,将供应链风险认定工具用于政治施压,将产生远超Anthropic个案的系统性负面后果:
- 寒蝉效应:如果AI公司因为表达安全关切就可能被列入黑名单,所有公司都会选择沉默。这将消除AI安全研究的关键反馈机制,增加真正的灾难性风险。
- 人才外流:顶尖AI研究人员选择在Anthropic工作,部分原因正是其安全使命。如果这一使命被政治压力所侵蚀,人才可能流向其他国家的研究机构。
- 盟友信任:美国的盟友(特别是欧盟、英国、日本、澳大利亚)在AI治理方面普遍更接近Anthropic的立场而非Trump政府的立场。武器化AI采购可能损害与盟友在AI领域的合作。
- 法律先例:如果供应链风险认定可以基于”推测性假设”而非具体安全证据来发出(来源: BSKiller Blog, 2026-03),这一工具未来可能被任何政府用于打压任何不受欢迎的技术公司。
我的判断
两种视角都包含合理元素,但我认为安全鹰派的论证存在一个根本性的逻辑缺陷:他们将”AI安全”等同于”限制AI能力”,但这是一个错误的二元对立。
Anthropic的安全研究——包括Constitutional AI、模型评估框架、对齐技术——实际上是在增强AI系统的可靠性和可控性。在军事场景中,一个可靠且可控的AI系统远比一个能力更强但行为不可预测的系统更有价值。想象一下一个在关键时刻产生幻觉的军事AI系统的后果——这才是真正的国家安全风险。
因此,Trump政府的正确策略不是迫使Anthropic放弃安全研究,而是与Anthropic合作,将其安全技术应用于国防场景。从4月中旬以来的信号来看,政府内部的务实派似乎正在推动这一方向。但问题在于,经过这90天的政治博弈,双方之间的信任已经严重受损,任何合作都将在一个充满猜忌的基础上展开。
五、更大的图景:AI产业-国家安全复合体的形成
这场Anthropic-五角大楼博弈不是一个孤立事件,而是一个更大趋势的缩影:AI产业-国家安全复合体(AI-National Security Complex)正在形成,其运作逻辑将定义未来10年的技术-地缘政治格局。
5.1 “旋转门”加速
在传统的军工复合体中,人员在国防部、国防承包商和智库之间旋转。在AI领域,这个旋转门正在加速旋转,但增加了一个新的节点:硅谷AI公司。前Google、Meta、OpenAI的员工进入国防部和情报界,反之亦然。这种人员流动既带来了技术能力的转移,也带来了利益冲突和文化冲突。
Anthropic的案例揭示了这种文化冲突的极端形态:一家由前AI研究人员创立、以安全使命为核心身份的公司,被要求在其价值观和政府合同之间做出选择。
5.2 “双轨制”的出现
从Axios报道的Mythos谈判细节(来源: Axios, 2026-04-16)可以看出,一种”双轨制”正在出现:
- 公开轨道:供应链风险认定仍然有效,Anthropic在名义上仍被排除在正式的国防部采购渠道之外。
- 非公开轨道:白宫和国家安全机构通过非正式渠道谈判获取Anthropic技术的访问权。
这种双轨制的危险在于它缺乏透明度和问责机制。如果政府可以一边公开封杀一家公司,一边私下使用其技术,那么供应链风险认定体系的公信力将被彻底摧毁。更重要的是,这种安排使得国会监督变得几乎不可能——如果连认定本身都可以被绕过,国会批准的采购规则还有什么意义?
5.3 对竞争对手的影响
Anthropic-五角大楼博弈对其他AI公司产生了深远的示范效应。
OpenAI:作为Anthropic最直接的竞争对手,OpenAI在这场博弈中处于微妙位置。一方面,Anthropic被封杀理论上为OpenAI创造了更大的政府市场空间。另一方面,OpenAI自身也面临着类似的政治压力——如果它被视为下一个”不够配合”的AI公司,同样可能面临类似的命运。这创造了一种”向底部竞争”的动态,所有AI公司都被激励去降低安全标准以取悦政府。
Google DeepMind:作为Alphabet旗下的AI研究实验室,Google DeepMind拥有更强的企业缓冲和更多元化的收入来源。但Google在中国市场的商业利益使其面临不同类型的政治风险。
Meta:Mark Zuckerberg选择的开源路线(Llama系列模型)在某种程度上规避了这种政治风险——如果模型是开源的,政府可以自行部署而无需与公司建立正式的采购关系。但开源模型在安全性和可控性方面的局限性使其在高风险国防场景中的适用性受到质疑。
国防科技初创公司(Palantir、Anduril、Shield AI等):这些公司从一开始就以国防市场为核心,它们的文化和价值观与五角大楼更加一致。Anthropic被封杀在短期内为这些公司创造了机会,但它们在前沿AI能力方面与Anthropic、OpenAI、Google DeepMind之间存在显著差距。
5.4 中国因素
这场博弈中最大的”房间里的大象”是中国。美国在AI领域的内部政治斗争——政府与AI公司之间的信任危机——直接有利于中国的AI军事化进程。
每一天美国花在内部博弈上的时间,都是中国在AI军事应用方面缩小差距的时间。百度、阿里巴巴、腾讯、字节跳动以及中国军方的AI研究机构不会因为安全顾虑而放慢脚步。更重要的是,中国的”军民融合”(Military-Civil Fusion)战略意味着中国AI公司与军方之间不存在美国式的文化冲突——它们从一开始就被设计为服务于国家战略目标。
这创造了一个悖论:Trump政府声称封杀Anthropic是为了国家安全,但这一行为实际上削弱了美国在与中国的AI竞争中的位置。五角大楼似乎在4月中旬认识到了这一点,这也是”交易可能”信号出现的深层原因之一。
六、Anthropic的战略选择:投降、抵抗还是第三条路?
面对这场政治风暴,Anthropic有3条可能的路径:
路径1:全面投降
完全放弃AI安全立场,修改可接受使用政策以满足政府的一切要求,在监管问题上保持沉默。
风险:失去核心身份和人才。Anthropic的许多顶尖研究人员之所以选择这家公司,正是因为其安全使命。如果这一使命被放弃,人才流失将是灾难性的。此外,Anthropic的商业客户中有很多正是看中了其安全承诺——企业客户不希望使用一个可能产生不可预测输出的AI系统。
路径2:全面抵抗
法律挑战供应链风险认定,公开批评政府的政治化行为,坚守所有安全原则不做任何妥协。
风险:虽然法律上可能获胜(来源: BSKiller Blog, 2026-03),但政治上的代价可能是长期的。Trump政府有多种其他工具可以给Anthropic制造麻烦——从税务审计到出口管制,再到通过社交媒体发动公众舆论攻势。
路径3:战略性妥协(最可能的路径)
在不放弃核心安全原则的前提下,在具体的国防应用场景上做出有限让步。例如:
- 为国防部创建专用的模型版本,在特定场景中放宽某些使用限制,同时保留核心安全护栏。
- 在监管立场上从”公开倡导”转向”幕后参与”——不再公开支持具体的监管法案,但继续在技术层面参与安全标准的制定。
- 接受政府安全审查和监督机制,以换取供应链风险认定的撤销。
从Trump4月21日”shaping up”的评价(来源: Reuters, 2026-04-21)和Politico关于”停战”的报道(来源: Politico, 2026-04-17)来看,Anthropic似乎正在走第3条路。
但这条路有一个根本性的风险:渐进式妥协可能导致”温水煮青蛙”效应。 每一次”有限让步”都会重新定义”核心安全原则”的边界,使下一次让步变得更容易。5年后回头看,Anthropic可能会发现自己已经变成了一家与最初愿景截然不同的公司。
七、对投资者、承包商和政策制定者的”So What”
对国防承包商
Mayer Brown的分析(来源: Mayer Brown, 2026-03)为国防承包商提供了具体的合规指导,但更重要的战略启示是:不要在AI供应商选择上做出不可逆的决定。 供应链风险认定可以在90天内从”封杀”变为”交易可能”,任何基于当前政治风向而仓促切换AI供应商的决定,都可能在政治风向再次变化时变得代价高昂。
具体建议:
- 保持多供应商策略,不要将所有AI能力押注在单一供应商上。
- 在合同条款中加入”政治风险”条款,为供应商认定状态变化预留灵活性。
- 密切关注Anthropic-五角大楼谈判的进展,准备在认定撤销后快速恢复合作关系。
对AI产业投资者
Anthropic的收入超越OpenAI的报道(来源: The AI Corner, 2026)——如果属实——表明AI市场的竞争格局远比许多人想象的更加动态。但投资者需要将政治风险纳入估值模型:
- 政治风险溢价:任何在AI安全立场上与政府存在分歧的公司,都面临类似Anthropic的供应链风险认定风险。这应该反映在估值折扣中。
- “政治对齐”溢价:相反,与政府立场高度一致的AI公司(如Palantir)可能享受政治溢价。但这种溢价在政府换届时可能迅速消失。
- 国防AI市场的真实规模:截至本文发布时,关于AI在国防预算中的具体占比暂无公开的权威数据。投资者应警惕基于过度乐观假设的市场规模估算。
对政策制定者
这场博弈暴露了美国AI治理框架中的一个根本性缺陷:缺乏一个独立于政治压力的AI-国防关系仲裁机制。
目前,AI公司是否能参与国防项目,取决于行政部门的单方面决定——而这一决定可以被政治化。一个更健康的体制应该包括:
- 独立的AI安全评估机构:类似于核安全领域的核管理委员会(NRC),由技术专家而非政治任命者领导。
- 透明的评估标准:供应链风险认定应基于公开、可审查的技术标准,而非”推测性假设”。
- 国会监督机制:重大的AI供应商认定决定应接受国会相关委员会的审查。
八、结论:90天改写的不仅是政策,更是规则
回到开头的问题:Trump如何在90天内改写AI安全政治?
答案不仅仅是”从封杀到交易”的政策反转。更深层的改写发生在3个层面:
第1,规则层面:供应链风险认定工具被重新定义为政治谈判工具,而非安全评估工具。这一先例一旦确立,未来任何政府都可以用类似方式对付任何不配合的技术公司。
第2,权力关系层面:AI公司与政府之间的关系从”合作伙伴”转变为”被监管者/求助者”。Anthropic的”shaping up”意味着它正在适应政府设定的规则,而不是相反。
第3,AI安全话语层面:AI安全从一个技术-伦理议题被重新框架为一个政治-商业议题。”安全”不再意味着”防止AI系统造成伤害”,而是意味着”不阻碍政府使用AI的能力”。
这3个层面的改写,其影响将远超Anthropic个案,远超Trump任期,甚至远超美国国境。当全球最大的AI市场建立了”政治忠诚度决定市场准入”的先例,所有国家的AI治理都将受到影响。
对于关注AI发展的每一个人——无论你是工程师、投资者、政策制定者还是普通公民——这90天的启示是清晰的:AI安全的最大威胁可能不是技术失控,而是技术治理的政治化。 当安全评估变成政治武器,当技术标准让位于政治忠诚,真正的安全——无论是AI安全还是国家安全——都将成为牺牲品。
Anthropic和五角大楼的”交易”可能即将达成。但在这场交易中,真正被交易的是什么,值得每一个人深思。
参考资料
- Trump says Anthropic is ‘shaping up,’ open to deal with Pentagon — Reuters, 2026-04-21
- DOD vs. Anthropic: A Supply Chain Risk Designation Built on ‘Conjectural, Speculative Imaginings’ — BSKiller Blog, 2026-03
- Pentagon Designates Anthropic a Supply Chain Risk — What Government Contractors Need to Know — Mayer Brown, 2026-03
- Anthropic and Donald Trump’s Dangerous Alignment Problem — The New Yorker, 2026-04
- Anthropic Passed OpenAI in Revenue — The AI Corner, 2026
- Defence Industry Statistics & Market Data 2026 — WifiTalents, 2026
- Trump says Anthropic is shaping up and a deal is ‘possible’ for Department of Defense use — CNBC, 2026-04-21
- Deal with Anthropic still ‘possible’ for military use — Washington Examiner, 2026-04
- Anthropic and Trump: Is a truce near? — Politico, 2026-04-17
- Trump officials negotiating access to Anthropic’s Mythos despite blacklist — Axios, 2026-04-16