美军AI采购白名单正式出炉:当8家科技公司获得机密网络通行证,Anthropic的困境揭示了一个AI治理悖论
2026年5月1日,美国国防部(DOD)同时宣布与8家科技公司签署协议,授权它们在机密网络(classified networks)上部署AI工具。这份名单包括了你能想到的几乎所有AI领域巨头——Nvidia、Microsoft、AWS、Google、OpenAI、Meta、Oracle和Palantir。但名单上缺席了一个名字:Anthropic。
这不是一个简单的”谁中标谁落选”的采购故事。这是一个关于AI治理哲学如何在国家安全现实面前碎裂的故事。Anthropic——这家以”AI安全”为核心品牌定位、以Constitutional AI为技术路线、以”负责任扩展政策”(Responsible Scaling Policy)为行业标杆的公司——恰恰因为其安全承诺的某些维度,被排除在了美国军方最重要的AI部署计划之外。
与此同时,围绕Mythos(一家与Anthropic前高管Michael相关的公司)的争议被国防部明确表示为”独立事件”,与Anthropic的排除决定无关。(来源: CNBC, 2026-05-01) 这一细节的公开澄清本身就意味深长:它暗示着Anthropic的问题不是某个个人的合规瑕疵,而是系统性的、结构性的。
让我们拆解这个事件的多重维度。
一、DOD签约8家公司:美国AI军事化的制度性里程碑
事件本体
2026年5月1日,五角大楼正式宣布与8家公司达成协议,允许它们将AI模型和工具部署到国防部的机密网络环境中。(来源: Reuters, 2026-05-01; TechCrunch, 2026-05-01; DefenseScoop, 2026-05-01)
这8家公司分别是:
- Nvidia — 提供GPU基础设施和推理优化
- Microsoft — Azure Government Cloud及相关AI服务
- AWS (Amazon Web Services) — 云基础设施及AI部署能力
- Google — 模型能力及云服务
- OpenAI — 大语言模型部署
- Meta — 开源模型(Llama系列)的定制化部署
- Oracle — 云基础设施
- Palantir — 数据分析和AI集成平台
(来源: DefenseScoop, 2026-05-01; The Verge, 2026-05-01)
关于来源数量差异的说明: Defense One在其报道标题中使用了”7 AI firms”的表述(来源: Defense One, 2026-05-01),这很可能是因为该媒体将Nvidia归类为”基础设施/芯片公司”而非”AI firm”。DefenseScoop、Reuters和TechCrunch的报道均确认签约公司总数为8家。本文采用8家的计数,涵盖所有获得机密网络部署授权的公司,无论其主营业务是模型开发还是基础设施。
为什么这是里程碑
此前,美国军方使用AI工具主要局限于非密级(unclassified)或低密级环境。机密网络——包括SIPRNet(Secret级)和JWICS(Top Secret/SCI级)——有着极其严格的准入要求。将商业AI公司引入这些网络,意味着:
第一,信任边界的根本性扩展。 机密网络的核心原则是”最小化攻击面”。每多一个供应商接入,就多一个潜在的供应链攻击向量。DOD愿意同时授权8家公司,说明其对AI能力的需求已经压倒了传统的安全保守主义。
第二,从实验到制度化。 此前各军种和国防机构零散地使用AI工具(如Project Maven、JADC2相关实验),但缺乏统一的采购框架。这次8家公司的集体签约,标志着DOD正在建立一个制度化的AI供应商生态系统。
第三,预算信号。 根据美国国防部FY2026预算提案(2025年发布),高级官员明确将AI和自主系统列为优先投资领域。(来源: Defense.gov, 2025) 该提案中的国防预算总规模约为1.5万亿美元——需要强调,这是总统提议的预算数字,尚需国会批准,且该数字涵盖国防部全部支出而非仅AI相关拨款。(来源: Yahoo Finance, 2025) 但即便AI/自主系统相关拨款仅占总预算的个位数百分比,其绝对规模也足以重塑整个AI产业的竞争格局。
签约公司的角色分化
这8家公司并非同质化的”AI供应商”。它们在DOD生态中扮演着截然不同的角色:
基础设施层(Infrastructure): Nvidia提供计算芯片和推理加速,AWS、Microsoft Azure和Oracle提供符合DOD安全标准的云环境。这些是AI部署的”地基”。
模型层(Model): OpenAI、Google和Meta提供核心语言模型能力。值得注意的是,Meta的Llama作为开源模型被纳入,这意味着DOD认可了开源模型在军事环境中的价值——可能因为开源模型允许更深度的审计和定制化,且部署后不依赖于供应商的持续配合。
应用层(Application): Palantir作为唯一的”原生国防科技”公司入选,其角色是将底层AI能力整合为面向作战人员的应用界面。Palantir的AIP(Artificial Intelligence Platform)已经在乌克兰战场上得到了实战验证。
OpenAI的转向尤其值得关注。 该公司在其官方博客上发布了一篇关于与国防部合作的文章。(来源: OpenAI官方博客, 2026-05-01) 根据公开报道,该文章的标题使用了”Department of War”这一19世纪的旧称——如果属实,这个措辞选择本身就是一种政治声明,暗示OpenAI试图将其军事合作框定为”防御性”的历史叙事。(注:这一标题的具体措辞来自公开报道引用,其政治意涵的解读属于本文分析。)回想2023年,OpenAI还明确在使用政策中禁止军事用途。从禁止到签约,仅用了不到3年。
二、Anthropic的缺席:安全悖论的完美案例
排除的直接原因
多家媒体报道证实,Anthropic被排除在DOD机密网络协议之外,且这一排除与一个”持续存在的争议”(ongoing dispute)有关。(来源: DefenseScoop, 2026-05-01; Reuters, 2026-05-01; The Verge, 2026-05-01)
CNBC的报道进一步澄清,围绕Mythos公司和前高管Michael的问题是”独立事件”(separate issue),与Anthropic被排除的核心原因无关。(来源: CNBC, 2026-05-01)
这意味着Anthropic的问题不是某个个人的安全审查(security clearance)失败,而是公司层面的系统性障碍。
关于”持续存在的争议”的性质: 截至本文发布时,没有任何公开报道明确披露这一争议的具体内容。但基于已知信息和行业背景,我们可以合理推断其可能涉及以下一个或多个维度:(a) Anthropic未能完成DOD要求的安全认证流程(如CMMC Level 3或设施安全许可);(b) Anthropic的使用政策条款与DOD的运营需求存在不可调和的分歧;(c) Anthropic在合同谈判中对模型使用范围设置了DOD无法接受的限制条件。需要明确声明:以下分析围绕这些可能性展开,但在官方披露具体原因之前,这些仍属于基于公开信息的有据推断,而非确证事实。读者应据此调整对后续分析的确信度。
悖论的核心结构
让我们明确这个悖论的逻辑结构:
前提A: Anthropic是业界公认在AI安全方面投入最大、标准最严格的前沿AI公司。其Responsible Scaling Policy、Constitutional AI方法论、以及对catastrophic risk的系统性评估框架,都被视为行业标杆。2025年,Anthropic发布了其第三版RSP,将安全评估扩展到了生物风险、网络安全和自主行为等多个维度。
前提B: 美国军方的机密网络准入要求的核心是”安全”——包括信息安全(cybersecurity)、供应链安全(supply chain security)、人员安全(personnel security)和运营安全(operational security)。
结论(悖论): 在AI安全领域最严格的公司,反而无法通过军事安全认证。
这个悖论之所以成立,是因为”AI安全”和”军事安全”是两套完全不同的概念体系:
| 维度 | Anthropic定义的”AI安全” | DOD定义的”安全” |
|---|---|---|
| 核心关切 | 模型行为可控、不产生有害输出 | 信息不泄露、系统不被渗透 |
| 方法论 | 对齐研究、红队测试、使用限制 | 设施安全认证(SCIF)、人员背景审查、CMMC合规 |
| 时间视野 | 长期existential risk | 当前作战环境的即时威胁 |
| 透明度要求 | 公开发表安全研究、外部审计 | 严格保密、最小知悉原则 |
| 供应商可靠性 | 保留基于伦理判断限制服务的权利 | 要求无条件履约保障 |
这里存在一个根本性的张力: Anthropic的安全哲学强调透明度、外部审计和公开讨论——这些在学术和公民社会语境中是”安全”的标志,但在军事语境中恰恰是”不安全”的信号。一家习惯性地公开讨论其模型能力边界的公司,对于需要保密的军事客户来说,可能构成一种结构性风险。
“负责任使用限制”的双刃剑
Anthropic的另一个可能障碍在于其使用政策(Acceptable Use Policy)。该公司长期以来对其模型的军事用途持限制态度。虽然Anthropic在2024-2025年间逐步放宽了与政府机构的合作范围(包括与Palantir和AWS合作为情报社区提供Claude访问),但其政策框架中仍保留了对”造成伤害”用途的限制。
对于DOD而言,这构成了一个实际的运营风险:如果Anthropic在合同期内以”安全”或”伦理”为由单方面限制某些功能,军方的作战能力可能在关键时刻受到影响。相比之下,OpenAI已经通过其博客文章明确表态拥抱军事合作(来源: OpenAI官方博客, 2026-05-01),Meta的开源模型一旦部署就不受公司政策约束,而Palantir从创立之初就以服务国防和情报社区为核心使命。
换言之,Anthropic的”安全承诺”在军方眼中可能被解读为”不可靠的供应商承诺”——一家可能在政治压力下撤回服务的公司。 (注:这一判断基于对DOD采购逻辑的推断,而非任何内部文件的直接引用。)
三、更深层的分析:谁定义”安全”?
两种安全观的哲学根源
Anthropic代表的是一种预防性安全观(precautionary safety):在不确定性面前,默认限制。这种思维来自于对existential risk的长期关注,其创始团队(Dario Amodei和Daniela Amodei等人从OpenAI离职创办Anthropic)的核心信念是,AI的最大风险来自于能力失控。
DOD代表的是一种对抗性安全观(adversarial security):安全不是通过限制自身能力来实现的,而是通过确保己方能力优于对手来实现的。在这种框架下,限制AI的使用范围不是”安全”,而是”自我削弱”。
这两种安全观的冲突,在2026年的地缘政治环境中尤为尖锐。根据公开报道和多家智库分析(包括CSIS、RAND等机构2024-2025年间发布的研究报告),中国的军事AI发展在制度层面不受类似于西方”负责任扩展政策”的约束。(来源:CSIS “AI and Great Power Competition” 系列报告, 2024-2025,具体链接待核实)如果美国最先进的AI模型因为伦理限制而无法部署到机密网络,而竞争对手的模型没有这些限制,那么Anthropic式的”安全”在国家安全层面反而可能变成了”不安全”。需要指出的是,这一论证本身是DOD视角下的逻辑推演,并不意味着本文认同”安全限制等于自我削弱”的简单等式——现实远比这更复杂。
制度性因素:CMMC与FedRAMP High
除了哲学层面的冲突,还有一个更务实的问题:合规认证。
DOD的机密网络供应商需要满足一系列严格的认证要求,包括但不限于:
- CMMC(Cybersecurity Maturity Model Certification):至少Level 3,涉及超过130项安全控制
- FedRAMP High:联邦风险和授权管理计划的最高级别
- ITAR合规:国际武器贸易条例
- 设施安全许可(FCL):公司必须获得国防反情报与安全局(DCSA)的设施许可
这些认证需要大量时间(根据行业从业者的公开讨论,通常需要18-24个月)、资金(据国防行业分析师估计,达到数千万美元级别的基础设施投入)和组织变革。Microsoft、AWS和Oracle作为长期国防承包商,早已拥有这些认证。Google通过其Google Public Sector部门也建立了相关能力。Palantir从创立之初就按照这些标准运营。
但对于Anthropic这样的”AI原生”公司,获取这些认证需要从零开始建设安全基础设施、进行人员背景审查、建立SCIF(敏感隔间信息设施)。这不仅仅是技术问题,更是组织文化问题——一家强调开放研究和学术合作的公司,需要在内部建立一个完全隔离的、保密运营的部门。
OpenAI显然已经做出了这个组织变革的决定。 其与DOD的签约表明,OpenAI在过去1-2年间已经完成了必要的安全认证流程(或至少满足了DOD的最低准入要求)。这也解释了为什么OpenAI在2024年初悄然修改了其使用政策,删除了军事用途的明确禁令——那是为认证流程铺路的前置动作。
Mythos的”独立事件”意味着什么
CNBC报道明确指出,Mythos和前高管Michael的问题与Anthropic的排除是”独立事件”。(来源: CNBC, 2026-05-01)
DOD之所以要公开做这个澄清,恰恰说明外界存在一种叙事——即Anthropic的排除是因为某个个人的安全问题。DOD需要否认这种叙事,因为:
第一, 如果排除原因是个人问题,那么Anthropic可以通过”切割”该个人来解决问题,DOD就面临重新评估的压力。
第二, 将问题定性为”系统性的、公司层面的”,给了DOD更大的自由度来维持排除决定,同时也给了Anthropic一个更清晰的信号:问题不在于某个人,而在于你们公司的整体定位和能力。
这个澄清实际上对Anthropic来说是更坏的消息——它意味着没有简单的修复路径。(注:这一判断基于对DOD采购决策逻辑的分析推断。Anthropic可能持有不同看法,且”持续争议”的最终解决方式仍存在多种可能性。)
四、对立视角:Anthropic的战略选择是否正确?
视角一:Anthropic犯了战略错误
持这种观点的人认为,Anthropic在AI安全领域的极端定位已经从竞争优势变成了竞争劣势。
论据如下:
-
市场排除效应: 美国国防预算提案中科技相关支出是一个巨大的市场。被排除在机密网络之外,意味着Anthropic失去了一个潜在的巨额收入来源。即便AI相关拨款仅占1.5万亿美元总预算的2-3%,也意味着300-450亿美元的年度市场规模。(注:这一估算基于简单的百分比推算,实际AI相关拨款的精确数字尚未在公开预算文件中被逐项披露,最终数字可能高于或低于此区间。)
-
信号效应: DOD的”白名单”对整个联邦政府和盟国军方具有示范效应。如果Anthropic无法进入美国军方的机密网络,那么Five Eyes盟国(英国、澳大利亚、加拿大、新西兰)的军方也不太可能采用Claude。
-
竞争劣势累积: OpenAI、Google和Meta通过军事合同获得的不仅是收入,还有独特的数据反馈(在极端场景下模型如何表现)和人才吸引力(安全许可持有者倾向于留在能继续使用许可的公司)。
-
“安全”品牌的局限性: 在商业市场上,企业客户选择AI供应商时,”安全”是一个加分项但不是决定性因素。如果Anthropic因为安全定位而失去了政府市场,同时在商业市场上又无法仅凭安全差异化胜出,那么它的定位就变成了两头不讨好。
-
融资压力: Anthropic在2024年3月完成了由Amazon领投的27.5亿美元融资,估值约为180亿美元。(来源: Reuters, 2024-03-27) 但在AI公司估值普遍依赖增长预期的环境下,政府市场的关闭可能影响未来融资轮次的估值倍数。截至本文发布时,尚无公开数据显示此次DOD决定对Anthropic估值的具体影响,但投资者对其TAM(Total Addressable Market)的重新评估是可以预期的。
视角二:Anthropic的坚持是长期正确的
持这种观点的人认为,Anthropic的定位在5-10年的时间尺度上将被证明是正确的。
论据如下:
-
监管趋势: 全球AI监管正在收紧。欧盟AI Act已于2024年正式生效并进入分阶段实施期,美国也在讨论联邦层面的AI立法。当监管框架最终要求所有AI公司满足安全标准时,Anthropic已经在前面了。
-
品牌价值: 在企业市场(尤其是金融、医疗、法律等高监管行业),Anthropic的安全品牌是真正的竞争优势。这些行业的总市场规模可能超过军事市场。根据多家分析机构(包括Gartner、IDC等)的估计,全球企业AI市场规模到2027年预计将超过5000亿美元。(来源:行业分析机构公开预测,具体数字因方法论不同而有所差异。)
-
人才吸引: AI安全研究领域最优秀的人才倾向于加入一家不会将其工作用于军事目的的公司。Anthropic的定位帮助它吸引了一批特定类型的顶尖研究者。
-
历史先例: Google在2018年因Project Maven争议而退出DOD AI合同,当时被视为战略错误。但Google后来通过Google Public Sector重新进入国防市场,同时保留了其在商业市场的品牌形象。Anthropic可能也在等待一个”合适的方式”重新进入。
-
风险规避: 军事AI部署一旦出现重大事故(如误杀平民),参与的公司将面临巨大的声誉和法律风险。不参与军事部署,实际上是一种风险对冲。
视角三:这不是Anthropic的”选择”,而是结构性困境
第三种视角认为,将这个问题框定为Anthropic的”战略选择”本身就是一种误读。
Anthropic的创始团队从OpenAI离职时,其核心信念是:前沿AI开发需要一个将安全置于商业利益之上的组织。这不是一个可以随时调整的”市场定位”,而是公司存在的根本理由(raison d’être)。如果Anthropic为了进入军事市场而放弃其安全承诺的核心要素,它就不再是Anthropic了——它只是另一个OpenAI。
从这个角度看,Anthropic面临的不是”要不要进入军事市场”的选择题,而是”如何在保持身份认同的同时生存”的存在性挑战。
我的判断
Anthropic的当前处境是一个典型的”价值观套利”(values arbitrage)失败案例——但这个”失败”可能是暂时的。
在2022-2024年间,Anthropic的安全定位确实是一种成功的差异化策略:它帮助公司吸引了重视安全的投资者(如Google的20亿美元投资)、客户和人才,同时在公众舆论中建立了正面形象。但到了2026年,当AI从实验室走向战场,当地缘竞争压倒了伦理讨论,这种定位的成本开始超过收益。
关键问题不在于Anthropic是否应该放弃安全承诺,而在于它是否可以找到一种方式,在保持安全研究领导力的同时,满足国防客户的需求。 OpenAI显然找到了这种平衡——它既保留了对AI安全的公开讨论,又通过组织结构调整(成立独立的政府业务部门)来满足DOD的要求。
Anthropic的真正失误可能不是”太安全”,而是”太慢”——它没有在2024-2025年间启动必要的合规认证流程,而是将精力集中在了模型能力和学术研究上。当DOD在2026年初开始评估供应商时,Anthropic还没有准备好。(注:这一判断基于公开时间线的推断。Anthropic是否曾尝试启动认证流程但遇到障碍,或是主动选择不启动,目前没有公开信息可以确证。)
五、国防预算背景:为什么现在?
FY2026预算信号
美国国防部FY2026预算提案(于2025年提交国会)将AI和自主系统列为关键优先领域。(来源: Defense.gov, 2025) 提议的国防预算总规模约1.5万亿美元,其中科技公司被分析师视为最大受益者。(来源: Yahoo Finance, 2025) 需要注意的是,这一预算数字是总统提案,最终拨款数字取决于国会审批,且AI/自主系统的具体拨款细目尚未完全公开。
这个预算规模的背景是:
- 中国军事现代化加速:根据中国官方公布的数据,2025年中国国防预算增长率为7.2%,连续多年超过GDP增速。(来源:中国财政部年度预算报告,2025年3月公布。需要指出的是,多家西方智库认为中国实际军事支出可能高于官方公布数字,但具体差额存在争议。)解放军在AI赋能的指挥控制、无人系统和信息战方面的投入据公开报道持续增加。
- 乌克兰战场教训:AI在情报分析、目标识别和电子战中的价值已被实战验证。Palantir的AIP和多种AI辅助的无人机系统在2024-2025年间得到了广泛部署。
- 美国国防工业基础的转型需求:传统国防承包商面临产能和创新挑战。
Lockheed Martin在2026年Q1财报中出现了盈利不及预期的情况,尽管国防需求依然旺盛。(来源: Investors.com, 2026) 这个细节很重要——它说明传统国防巨头在满足新型技术需求方面面临困难,为科技公司进入国防市场打开了空间。传统国防承包商的核心能力在于硬件系统集成(飞机、导弹、舰艇),而非软件和AI——这正是8家科技公司填补的缺口。
“白名单”模式的制度逻辑
DOD选择同时签约8家公司而非单一供应商,反映了一种深思熟虑的采购策略:
避免供应商锁定(Vendor Lock-in): 如果只选择一家AI供应商,DOD将面临巨大的议价劣势和供应链风险。8家公司的生态系统确保了竞争和冗余。
能力互补: 不同公司提供不同层次的能力。Nvidia提供硬件,云厂商提供基础设施,模型公司提供AI能力,Palantir提供集成应用。这是一个完整的技术栈。
速度优先: 与其等待一个完美的单一解决方案,不如让多家公司在机密网络中并行实验。这是硅谷”快速迭代”思维在国防采购中的体现——与传统的多年期单一合同模式形成鲜明对比。
政治分散风险: 如果只选择一家公司(比如OpenAI),DOD将面临巨大的政治压力和反垄断质疑。8家公司的分散选择降低了政治风险。
六、对AI产业格局的连锁影响
短期影响(6-12个月)
1. Anthropic的融资和估值压力
被排除在DOD白名单之外,对Anthropic的商业前景是一个负面信号。Anthropic在2024年的最后一轮公开融资中估值约为180亿美元(Amazon领投27.5亿美元,2024年3月)。虽然Anthropic的主要收入来自商业API和企业合同,但政府市场的缺失限制了其收入多元化能力。在AI公司估值高度依赖增长叙事的环境下,TAM的收缩可能影响下一轮融资的条件。(注:这是基于风险投资估值逻辑的推断。Anthropic的实际融资表现将取决于多种因素,包括其商业收入增速、技术突破和整体市场环境。)
2. OpenAI的军事化加速
OpenAI通过其官方博客高调宣布军事合作(来源: OpenAI官方博客, 2026-05-01),标志着这家公司从”非营利AI研究实验室”到”全栈AI平台公司”的转型基本完成。Sam Altman在过去两年中系统性地移除了公司的各种自我限制——先是非营利结构(2024年启动营利性转型),然后是军事用途禁令(2024年初修改使用政策),现在是机密网络部署。
3. Meta开源模型的军事验证
Meta的Llama系列模型被纳入DOD白名单,这对开源AI社区具有重大意义。它证明了开源模型在最高安全等级环境中的可用性——同时也引发了一个尖锐问题:如果一个任何人都可以下载的模型被用于军事目的,那么”开源”和”武器扩散”之间的界限在哪里?Meta的Llama 3.1(405B参数)已经被全球数千个组织下载和部署,其军事化使用无法被Meta单方面控制。
中期影响(1-3年)
1. AI安全研究的”军事化分叉”
DOD白名单的建立将创造一个新的AI安全研究方向——”军事AI安全”(Military AI Safety)。这与Anthropic式的”对齐安全”(Alignment Safety)有着根本不同的关注点:前者关注的是模型在对抗环境中的鲁棒性、对抗性攻击的抵御能力、以及在通信中断时的可靠行为;后者关注的是模型是否会”失控”或产生有害输出。
这两个方向可能会在人才和资金上形成竞争。如果DOD将大量资金投入”军事AI安全”研究,可能会从学术界的”对齐安全”研究中吸走人才。这一趋势是否会实际发生,取决于DOD未来的具体拨款决定和学术界的薪资竞争力——目前仍属于前瞻性预判。
2. 盟国军方的跟进
美国DOD的白名单将成为Five Eyes盟国和NATO伙伴的参考模板。英国国防部在2025年已经启动了类似的AI供应商评估流程(据公开报道)。澳大利亚和日本的军方在选择AI供应商时,很可能优先考虑已经获得美国DOD认证的公司。这意味着Anthropic不仅失去了美国市场,还可能被排除在整个西方军事AI生态系统之外。(注:盟国是否会完全复制美国DOD的供应商名单,取决于各国自身的评估流程和战略考量。这里描述的是一种可能的趋势而非确定性结果。)
3. 国防承包商的AI整合
传统国防巨头(Lockheed Martin、RTX/Raytheon、Northrop Grumman、Boeing)将需要与这8家科技公司建立合作关系。Lockheed Martin在Q1财报中的盈利压力(来源: Investors.com, 2026)部分反映了其在新技术整合方面的投入。未来,我们可能会看到更多”传统国防+AI科技”的合资企业或深度合作——类似于Palantir与多家国防承包商已经建立的合作模式。
长期影响(3-5年)
1. AI治理的”安全悖论”制度化
Anthropic的案例可能会被写入AI政策教科书:一家以安全为核心使命的公司,因为其安全定义与国家安全定义的不兼容,被排除在最重要的AI部署场景之外。这个悖论如果不被解决,将导致一个荒谬的结果——最关注AI安全的研究者和公司,恰恰无法影响AI在最高风险场景(军事)中的部署方式。
2. “安全”定义的统一化压力
长期来看,国际社会可能需要建立一个统一的AI安全框架,将”对齐安全”、”信息安全”、”运营安全”和”战略稳定性”整合为一个连贯的体系。目前这些概念分属不同的学科和机构(AI实验室、网络安全公司、军事机构、外交部门),导致了Anthropic式的悖论。2025年在英国举办的第二届AI安全峰会已经开始触及这个议题,但进展缓慢。
七、大多数人没看到的:真正的权力重构
洞察一:DOD正在建立一个”平行硅谷”
这次签约的8家公司不仅仅是”供应商”——它们正在成为美国国防体系的有机组成部分。当这些公司的工程师获得安全许可、在SCIF中工作、接触机密数据时,它们与DOD之间的关系就从”买卖关系”变成了”共生关系”。
这意味着未来的AI发展方向将越来越多地受到国防需求的塑造。如果DOD需要一种特定类型的AI能力(比如在电磁干扰环境下的鲁棒推理,或者在低带宽环境下的边缘部署),那么这些公司的研发优先级就会相应调整。
这是一种21世纪版本的”军工复合体”——但这次不是钢铁和火药,而是算法和数据。 艾森豪威尔在1961年警告的”军工复合体”(military-industrial complex)正在演变为”军事-算法复合体”(military-algorithmic complex)。这一类比并非完美
参考资料
- Pentagon reaches agreements with top AI companies, but not Anthropic — Reuters, 2026-05-01
- Pentagon inks deals with Nvidia, Microsoft, and AWS to deploy AI on classified networks — TechCrunch, 2026-05-01
- Our agreement with the Department of War — OpenAI官方博客, 2026-05-01
- DOD expands its classified AI work with 8 companies — excluding Anthropic — amid ongoing dispute — DefenseScoop, 2026-05-01
- 7 AI firms cleared to provide tools for classified Pentagon networks — Defense One, 2026-05-01
- Pentagon strikes classified AI deals with OpenAI, Google, and Nvidia — but not Anthropic — The Verge, 2026-05-01
- Anthropic still blacklisted, but Mythos is a separate issue — CNBC, 2026-05-01
- Senior Officials Outline President’s Proposed FY26 Defense Budget — U.S. Department of Defense, 2025
- Lockheed Martin Retreats On Earnings Miss; Defense Demand Remains Elevated — Investor’s Business Daily, 2026
- These Are the 3 Biggest Winners From the Proposed $1.5 Trillion Defense Budget — Yahoo Finance, 2025
- Anthropic raises $2.75 billion in funding round led by Amazon — Reuters, 2024-03-27
主题分类:监管政策/地缘AI