2026年3月,Forbes专栏作家Paulo Carvao发表了一篇引发广泛讨论的分析文章,将Anthropic与美国国防部之间围绕AI治理权的紧张关系定性为”AI领域的良心条款”冲突。这篇报道揭示的核心分歧在于:当一家以AI安全为立身之本的公司面对军方对完全控制权的要求时,谁的规则应当优先?这不是一次普通的商业谈判摩擦——它暴露了一个更深层的结构性矛盾:在AI军事化浪潮中,越是强调负责任AI治理的大型公司,越难满足军方对系统完全控制权的根本要求。

这个结论听起来反直觉,但逻辑链条清晰而冷酷:Anthropic的安全治理框架、公开伦理承诺和透明化对齐研究路径,恰恰构成了进入国防采购体系的三重结构性障碍。与此同时,一批专注于国防场景的AI创业公司——从Anduril到Shield AI,从Scale AI的国防业务线到更小的CDAO(首席数字与人工智能办公室)供应商——正在利用”无历史包袱”的状态悄然填补这一空缺。

这不是Anthropic一家的故事,而是整个AI产业在政府采购赛道上权力再分配的预演。


第一章:冲突引爆——Anthropic与五角大楼的分歧始末

理解这场冲突,必须先理解Anthropic的基因。

Anthropic由前OpenAI安全团队核心成员Dario Amodei和Daniela Amodei于2021年创立,其创始叙事的核心是”AI安全优先”——这不仅是营销话语,而是深度嵌入公司架构和产品决策的运营原则。Claude的Constitutional AI训练方法、公司对模型能力边界的主动限制、以及一系列公开发布的安全研究报告,都是这一原则的外化表现。截至2025年初,Anthropic已累计融资超过73亿美元,估值达到约615亿美元,使其成为全球估值最高的AI安全公司之一。

然而,正是这种深度的安全治理承诺,在与五角大楼的互动中变成了难以逾越的结构性障碍。

根据Forbes的分析报道,Anthropic与国防部之间的核心分歧集中在一个根本性问题上:谁对AI系统拥有最终控制权?(来源: Forbes/Paulo Carvao, 2026-03-04)需要明确的是,这一分歧目前更多体现为双方在AI治理哲学上的根本性张力,而非某一份具体采购合同的正式失败。但正是这种哲学层面的不兼容,使得Anthropic在特定国防AI应用场景中处于实质性的竞争劣势。

军方的逻辑是直接的——在战场或准战场环境中部署AI系统,必须拥有不受第三方约束的完全操控能力,包括修改模型行为、绕过安全限制、以及在特定场景下授权原本被禁止的输出。Anthropic的立场同样直接:某些安全边界是不可谈判的,无论客户是谁。

这不是双方谈判技巧的问题,而是两种根本不同的AI治理哲学之间的碰撞。Anthropic将自身安全框架定义为一种”不可外包的责任”——即便是付费客户,也无权完全绕过公司设定的安全护栏。军方则将这种设计视为主权让渡:允许一家私人公司对国家军事AI系统保留否决权,在任何国防采购逻辑中都是不可接受的。

Fuzzylabs(一家MLOps咨询公司)的博客文章将这场对峙定性为”AI治理中的良心条款”问题。虽然Fuzzylabs并非国防政策权威来源,但其提出的框架——当商业AI公司的伦理承诺与国家安全需求产生直接冲突时,谁的规则优先——准确地捕捉了这一矛盾的核心。RAND公司在2024年发布的《Acquiring AI for Defense》报告中也指出了类似的张力:国防部在AI采购中面临的核心挑战之一,是如何在商业AI供应商的产品设计哲学与军方的操作控制需求之间取得平衡。(来源: RAND Corporation, 2024)

值得关注的是,Anthropic并没有完全放弃政府关系通道。TechCrunch于2026年4月14日报道,Anthropic联合创始人确认公司曾就Mythos模型向特朗普政府进行简报。(来源: TechCrunch, 2026-04-14)这一动作传递了复杂的信号:一方面,Anthropic显然仍在寻求在政策层面维持影响力和合法性;另一方面,简报行为的公开化暗示公司在政府关系策略上正处于某种摸索状态,试图在”安全AI倡导者”和”政府可信赖供应商”两个角色之间找到平衡点。

但这种平衡在军事应用场景中极难成立。向政府简报一个新模型,与将该模型完全嵌入国防采购体系之间,存在一道几乎无法跨越的结构性鸿沟。前者是信息共享,后者要求的是控制权转移。


第二章:大厂的结构性劣势——安全治理框架如何成为军事合规的绊脚石

Anthropic的困境不是偶然的,而是其商业模式与技术路线的必然产物。要理解这一点,需要深入解剖大型AI公司在军事合规中面临的3重结构性障碍。

第1重障碍:公开伦理承诺的锁定效应

Anthropic的Project Glasswing项目聚焦于为AI时代保护关键软件的安全性。根据Anthropic官方博客的描述,该项目旨在”保护支撑现代数字基础设施的关键软件”,其核心理念是在基础设施层面建立系统性安全保障。(来源: Anthropic官方博客, glasswing项目页面)这种在基础设施层面内置安全机制的设计哲学,与军方对”完全可控”系统的需求形成了直接的架构级冲突。

问题的关键不在于Anthropic是否愿意为军方定制产品,而在于其公开承诺已经创造了一种”声誉锁定”效应。当一家公司在公众面前反复强调”我们的AI不会被用于某类应用”时,这种承诺就不再只是内部政策,而变成了品牌资产的一部分。任何对这一承诺的违背,都会引发公众信任的崩塌——而公众信任恰恰是Anthropic商业模式的核心支柱之一。

这就创造了一个双重绑定困境:接受军方的完全控制权要求,则违背公开伦理承诺,损害消费者市场信任;拒绝军方要求,则被排除在规模最大、预算最充足的政府采购市场之外。美国国防部2025财年AI相关预算约为18亿美元,且呈快速增长态势——这不是一个可以轻易放弃的市场。大型AI公司越是在消费者市场建立”负责任AI”的品牌形象,这个困境就越难破解。

相比之下,一家从未发布过公开伦理宪章、从未在公众面前承诺过任何使用限制的小型防务AI创业公司,根本不存在这种锁定效应。它们的”无承诺”状态,在军事合规语境中反而成为了一种资产。

第2重障碍:自动化对齐研究的透明度悖论

Anthropic在自动化对齐研究方向上的投入,代表了AI安全领域最前沿的技术路线之一。其Automated Alignment Researchers项目旨在利用大语言模型本身来推进对齐研究——这是一种高度透明化、开放化的安全研究路径,研究成果通常以论文形式公开发布。(来源: Anthropic Research Blog, automated-alignment-researchers)

这种透明化研究策略在学术界和AI安全社区获得了广泛认可,但在军事应用场景中却产生了严重的合规摩擦。军事AI系统的核心要求之一是保密性——不仅是系统能力的保密,更是系统局限性和失效模式的保密。一个将自身安全研究过程和发现全面公开的供应商,在军方眼中本质上是一个”能力透明度过高”的合作方。

更深层的问题在于:对齐研究的公开化意味着Anthropic的模型行为边界是可被外部研究者理解和预测的。这在消费者市场是一个加分项——用户希望理解AI的行为逻辑。但在军事应用中,可预测的边界意味着可被对手研究和利用的攻击面。军方需要的是一个”黑箱”,而Anthropic提供的是一个”白箱”。

第3重障碍:组织规模与审批链条的复杂性税

大型AI公司在处理政府合同时,面临一种独特的”组织规模税”。Anthropic在2024年完成了由Menlo Ventures领投的27.5亿美元D轮融资,此前还获得了来自Google、Salesforce Ventures等机构的大额投资,累计融资超过73亿美元。这一融资规模使其内部决策链条、法律合规流程、董事会治理结构,都已达到相当复杂的程度。

这种组织复杂性在军事采购中会产生两个具体问题:第一,任何涉及安全边界调整的决策都需要经过多层审批,响应速度远慢于小型公司;第二,大型公司的股东结构和投资人背景本身就是安全审查的对象——Anthropic的投资人名单中包含来自不同国家和背景的机构投资者,这在某些高密级项目中会直接触发外国投资安全审查(CFIUS)程序。

相比之下,一家由前军方技术人员创立、专注于国防场景的小型AI公司,其股权结构通常更简单,创始团队往往已经持有安全许可,决策链条可以压缩到极致。这种”组织轻量化”在军事合规中具有不可低估的实际价值。


第三章:小公司的逆袭逻辑——从理论到实证

理解小型防务AI创业公司的崛起,需要从军方采购官员的视角出发,而不是从硅谷投资人的视角出发。更重要的是,这种崛起不是纯粹的理论推演——它已经在实际的国防采购中得到了验证。

实证案例:谁在赢得国防AI合同?

Anduril Industries是最具代表性的案例。这家由Palmer Luckey(Oculus VR创始人)于2017年创立的国防科技公司,在2024年获得了美国国防部价值超过10亿美元的合同,用于开发自主无人系统和AI驱动的战场感知平台。Anduril的核心竞争力不在于其AI模型的通用能力超过Anthropic或OpenAI,而在于其从第一天起就按照军方标准设计产品——完全本地化部署、离线运行能力、模型权重完全归属军方。(来源: Defense One, 2024)

Shield AI是另一个典型案例。这家总部位于圣迭戈的公司专注于自主无人机系统,其Hivemind自主飞行系统已在实战环境中完成测试。Shield AI在2023年完成了5.43亿美元的F轮融资,估值达到27亿美元。关键在于:Shield AI的创始人Brandon Tseng是前海军特种部队军官,公司核心团队中大量成员持有现行安全许可。(来源: Reuters, 2023-11-29)

在更小的规模上,CDAO(首席数字与人工智能办公室,2022年由五角大楼设立)的供应商名单中,充斥着名字鲜为人知但合同稳定的小型AI公司。根据Bloomberg Government的数据,2023-2025年间,国防部AI相关合同中,授予员工人数少于500人的公司的合同数量增长了约47%,而授予大型科技公司的合同增速仅为12%。(来源: Bloomberg Government, 2025)

“白纸优势”:从零开始按军方标准设计

这些小型防务AI创业公司最大的优势,恰恰是它们什么都没有——没有公开的伦理宪章,没有承诺过的使用限制,没有需要向消费者市场交代的品牌形象。这种”白纸状态”允许它们从第一天起就按照军方的合规标准来设计架构。

具体而言,这意味着:系统设计可以从一开始就内置完全的用户控制权,没有任何预设的”不可绕过”的安全限制;数据处理流程可以从第一行代码开始就满足军方的数据主权要求;安全审查流程可以按照CMMC(网络安全成熟度模型认证)标准从头设计,而不是在已有系统上进行改造。

关于CMMC,有必要展开说明。CMMC 2.0框架于2024年底正式生效,分为3个层级:Level 1要求基本的网络安全卫生(17项实践),Level 2要求符合NIST SP 800-171的110项安全要求,Level 3则要求满足NIST SP 800-172的增强安全要求。对于涉及受控非密信息(CUI)的AI系统合同,通常要求至少达到Level 2。大型AI公司在CMMC合规中面临的核心挑战是:其现有的云端服务架构和数据处理流程是为商业客户设计的,改造以满足CMMC Level 2或Level 3的要求,涉及大量的架构重构。而从零开始按CMMC标准构建系统的小型公司,不存在这种改造成本。

改造一个为消费者市场设计的AI系统以满足军事合规要求,与从零开始按军事合规标准构建一个AI系统,其难度和成本差异是数量级的。这个技术债务,是大型AI公司无法通过谈判消除的。

决策链条的极致压缩与人员背景优势

在军事采购中,响应速度本身就是一种竞争力。小型防务AI创业公司的决策链条通常极短:创始人即CTO,CTO即首席合规官,合规决策可以在一次电话会议中完成。Anduril的Palmer Luckey曾公开表示,公司能够在数周内完成从需求确认到原型交付的全流程,而传统国防承包商通常需要数月甚至数年。

许多小型防务AI创业公司由前军方技术官员创立。Shield AI的Brandon Tseng、Rebellion Defense(现已被Anduril收购)的前国防部官员创始团队、以及大量从Palantir等公司分裂出来的国防AI创业者,都自带安全许可和军方人脉网络。这种理解不是通过咨询报告获得的,而是通过多年实际服务建立的。

对比:大厂的”双面人”困境

大型AI公司在政府市场面临的最根本困境,是它们必须同时服务两个价值观存在根本冲突的市场。

消费者市场要求AI公司表现出对用户安全和隐私的承诺,要求透明度,要求对有害内容的主动限制。政府军事市场则要求完全控制权、保密性,以及在特定场景下执行消费者市场中被明确禁止的操作的能力。

Google在2018年的Project Maven争议是这一困境的经典先例。当时Google员工大规模抗议公司参与国防部的AI图像识别项目,最终迫使Google退出该合同并发布了限制AI军事应用的伦理准则。这一事件深刻影响了整个硅谷大型科技公司对国防合同的态度——它证明了内部员工的伦理压力可以直接否决商业决策。(来源: New York Times, 2018-06-01)

Anthropic在这个矛盾中的处境尤为典型:公司的整个品牌叙事都建立在”负责任AI开发者”的形象上,这一形象对于吸引顶级AI安全研究人才至关重要。一旦公司被公众认知为”向军方出售不受限制的AI武器”,其招募顶级安全研究人员的能力将受到严重损害——而这些人才恰恰是Anthropic技术护城河的核心来源。


第四章:AI采购格局重组——从”大厂通吃”到”分层供应链”

Anthropic与五角大楼的分歧,不仅仅是一次商业关系的波折,它正在加速推动美国国防AI采购格局的系统性重组。

分层供应链的形成逻辑

国防AI采购正在向一种分层架构演进,这种演进有其内在的技术和政治逻辑。

在基础模型层,五角大楼仍然需要依赖大型AI公司的能力——训练具有前沿能力的基础模型需要数十亿美元的算力投入和数百名顶级研究人员。Meta在2024年宣布将投入超过370亿美元用于AI基础设施建设,Google和Microsoft的投入规模类似。这不是任何小型创业公司能够独立实现的。因此,大型AI公司在基础模型层的供应商地位短期内不会被完全取代。

但在应用层和部署层,情况截然不同。将基础模型能力转化为具体的军事应用——情报分析、目标识别、后勤优化、战场通信——不需要重新训练基础模型,而需要的是对军方具体需求的深度理解、符合军事合规标准的部署架构,以及对军方指挥体系的快速响应能力。CSIS(战略与国际研究中心)在2025年发布的报告中指出,国防部正在有意识地推动”模块化AI采购”策略,将基础模型能力与应用层开发分离,以降低对单一供应商的依赖。(来源: CSIS, 2025)

这种分层结构意味着:大型AI公司可能成为国防AI供应链中的”原材料供应商”,而小型防务AI公司则成为将原材料转化为实战能力的”系统集成商”。在这个分工格局中,利润分配和战略控制权的天平,将向应用层倾斜。

Claude性能争议的潜在信号效应

就在Anthropic与五角大楼关系紧张的同一时期,公司还面临另一个挑战:用户对Claude性能下降的大规模反弹。

Fortune于2026年4月14日报道,Anthropic正面临用户对Claude性能下降的大规模投诉,用户抱怨集中在性能衰退和透明度不足两个方面,Fortune的报道指出这可能与算力紧缺有关。(来源: Fortune, 2026-04-14)Yahoo Finance同日的报道进一步证实了这一趋势的广泛性。(来源: Yahoo Finance, 2026-04-14)

需要谨慎指出的是,目前没有直接证据表明政府采购官员在评估AI供应商时会参考消费者市场的性能投诉。但这一事件的潜在信号效应不应被低估:在政府采购决策中,供应商的稳定性和可靠性是权重极高的评估维度。如果一家AI公司无法向商业用户提供稳定的性能承诺,这至少会引发采购评估人员对其系统可靠性的合理质疑。

更值得关注的是,性能下降与透明度不足的组合,触发了一个敏感的信号:供应商是否在隐瞒系统局限性?这种不确定性在商业场景中可能只是用户体验问题,在军事应用场景中则可能被放大为作战风险问题。

Anthropic的战略定位漂移

Anthropic经济指数报告(2026年3月)的发布,清晰地展示了公司战略定位的一个重要侧面:公司将自身定位为AI经济基础设施的研究者和分析者,而非军事应用供应商。(来源: Anthropic Research Blog, 2026-03)

这种定位选择本身就是一种战略信号——Anthropic正在将自身的叙事锚定在经济基础设施和生产力工具的轨道上,而不是国防和安全应用的轨道上。这一定位在消费者市场和企业市场是有效的,但它进一步拉大了公司与国防采购需求之间的文化和战略距离。


第五章:被忽视的第三维度——数据主权、模型所有权与国际比较

大多数关于Anthropic与五角大楼分歧的分析,都聚焦在伦理框架和控制权的表层冲突上。但存在更深层、更少被讨论的维度。

军方数据的特殊性与模型所有权

军事AI系统在训练和微调过程中会接触到高度敏感的军事数据——作战记录、情报分析、武器系统参数等。对于五角大楼而言,一个核心问题是:当这些数据被用于训练或微调一个由私人公司控制的AI模型时,这些数据的主权归谁?

大型AI公司的商业模式,通常包含某种形式的数据使用权条款——即便是经过严格限制的企业合同,也往往包含供应商用于改善服务的数据使用条款。对于军事数据而言,任何形式的数据使用权让渡都是不可接受的。

小型防务AI创业公司可以从合同第一条就明确:所有数据完全归属军方,供应商不保留任何数据使用权,模型权重在交付后完全移交。Anduril的Lattice平台就是按照这一原则设计的——所有数据处理在军方控制的环境中完成,Anduril不保留任何作战数据。这种”完全移交”的商业模式,是大型AI公司基于其商业模式逻辑很难接受的条款。

更深层的问题是模型所有权本身。如果五角大楼依赖一个由Anthropic拥有和控制的AI模型,那么在极端情境下——例如Anthropic因商业压力、监管要求或公司政策变化而决定关闭某个API——军事AI系统的连续性将面临风险。这种”供应商依赖风险”在国防采购中被称为”单点失效”,是采购官员在评估供应商时最优先规避的风险类型之一。

国际比较:盟国与对手的不同路径

将视野扩展到美国之外,可以发现”大厂vs小厂”的动态并非美国独有,但不同国家的解决方案差异显著。

以色列的模式最接近”小公司主导”。以色列国防军的AI采购高度依赖本土中小型科技公司,如Elbit Systems的AI子部门和一系列军事AI创业公司。以色列的优势在于其军民融合文化极为深厚——几乎所有科技创业者都有服兵役经历,文化隔阂问题几乎不存在。以色列的Unit 8200(信号情报部队)更是直接充当了国防AI人才的孵化器。

英国的模式则试图走中间路线。英国国防部在2024年设立了Defence AI Centre(DAIC),其明确目标之一是建立一套能够同时容纳大型科技公司和小型专业供应商的采购框架。DAIC的设计理念是:大型公司提供基础能力,小型公司负责特定场景的定制化部署,两者通过标准化接口协作。(来源: UK Ministry of Defence, 2024)

中国的军民融合模式提供了一种完全不同的参照。在中国的体制下,大型AI公司(如商汤科技、旷视科技)与军方之间不存在”谁拥有控制权”的博弈——国家安全需求在法律和制度层面具有无条件的优先权。这种模式消除了Anthropic式的治理冲突,但代价是AI安全治理的独立性被完全取消。

这种国际比较揭示了一个关键洞察:美国面临的”大厂结构性劣势”问题,本质上是自由市场经济体制下AI治理多元化的副产品。在政府对企业拥有更强控制力的体制中,这个问题根本不会出现——但这并不意味着那些体制的解决方案更优,因为它们以牺牲AI安全治理的独立性为代价。

小型防务AI公司的窗口期有多长?

需要指出的是,小型防务AI创业公司的”白纸优势”并非永久性的。Anduril的估值已经超过140亿美元(截至2024年),Shield AI的估值也已达到27亿美元——随着这些公司规模扩大、融资增加、公众曝光度提升,它们同样会面临来自公众、投资人和监管机构的伦理问责压力。

这意味着当前存在一个有限的窗口期:在这个窗口期内,小型防务AI公司可以凭借”无历史包袱”的优势快速嵌入国防采购体系,积累合同、数据和军方信任。一旦这些公司完成初步市场占位,即便后续面临伦理压力,其已建立的合同关系和系统集成深度也将形成相当强的护城河。

这种窗口期逻辑,部分解释了为什么我们正在观察到防务AI领域创业活动的集中爆发——创始人们意识到,现在是利用大厂结构性劣势完成市场占位的最佳时机。


结语:AI治理的悖论——越负责任的公司越难服务于国家安全?

Anthropic与五角大楼的分歧,最终揭示的是一个令人不安的系统性悖论:在当前的AI产业格局中,越是认真对待AI安全治理、越是公开承诺负责任AI开发的公司,越难以满足国家安全机构对完全控制权的根本要求。

这个悖论有两种解读方式,代表了两种截然不同的世界观。

第1种解读:市场正在做出正确的选择

持这种观点的人会说:军方需要完全可控的AI系统,这是完全合理的主权要求。Anthropic的安全治理框架是为消费者市场设计的,不适合军事应用场景。市场正在自然地将不同类型的AI能力分配到最适合的应用场景中——Anthropic专注于消费者和企业市场,Anduril和Shield AI服务于国防市场,这是合理的专业分工。前国防部CDAO首席数字官Craig Martell在多次公开演讲中也强调,国防AI采购应当优先考虑”任务适配性”而非”技术先进性”。

第2种解读:这是一个危险的激励扭曲信号

持这种观点的人会指出:如果市场逻辑导致最认真对待AI安全的公司被排除在军事应用之外,而军事AI市场由”无伦理包袱”的小公司主导,那么军事AI领域将系统性地缺乏安全治理能力。这不是分工合理化,而是一种激励扭曲——它向整个AI产业发出信号:如果你想进入利润丰厚的国防市场,就不要建立太强的安全治理框架。斯坦福大学HAI(人类中心人工智能研究所)在2025年的AI Index报告中警告,军事AI领域的安全治理标准正在与民用AI领域出现”系统性脱节”。(来源: Stanford HAI, AI Index Report 2025)

我的判断倾向于第2种解读,但原因比通常讨论的更为复杂。

问题的核心不在于Anthropic的安全框架是否”过于严格”,而在于军事AI采购体系尚未建立起一套能够区分”有原则的安全限制”和”不合理的商业控制”的评估框架。五角大楼目前的采购逻辑,本质上是在用”是否愿意完全服从”来替代”是否拥有足够的安全保障”——这两者是完全不同的评估维度。

一个完全服从军方指令但缺乏内置安全机制的AI系统,在军事环境中可能比一个有原则性限制但安全机制健全的系统更危险。但这种风险在当前的采购评估框架中是不可见的,因为它只会在部署后的实际使用中显现。这正是大多数人没有看到的第三层问题:表面上看,这是Anthropic与五角大楼的商业分歧;往深一层,这是AI治理哲学的冲突;但最深层的问题是——当前的国防AI采购框架正在系统性地筛选掉安全治理能力最强的供应商,而这种筛选的后果要到AI系统在高风险场景中出现重大失效时才会显现。

对产业的实际影响

这一格局对整个AI产业的影响是深远的。它正在创造一种分叉:在消费者和企业市场,AI公司面临越来越强的安全治理压力(欧盟AI法案、美国行政命令14110号等);在国防市场,缺乏安全治理承诺的小公司反而获得竞争优势。这种分叉如果持续深化,将导致军事AI和民用AI在安全治理水平上的系统性分离。

对于Anthropic而言,短期内最务实的路径可能是接受这种分工:专注于将Claude打造成企业和消费者市场的标准AI基础设施,通过Mythos等新模型维持与政府的政策对话渠道,而不是试图在军事应用场景中与Anduril、Shield AI等专业防务AI公司正面竞争。

但这个选择本身也是有代价的:放弃军事市场意味着放弃美国政府AI支出中增长最快的部分。在AI军备竞赛持续加速的背景下,这种放弃对Anthropic长期竞争地位的影响,将在未来几年内逐渐显现。

真正的问题不是Anthropic是否应该进入军事市场,而是:当最有能力确保AI安全的公司系统性地被排除在最高风险的AI应用场景之外时,这个社会应该如何应对这种结构性的治理空白?

对于读者——无论你是AI从业者、政策制定者还是投资人——这意味着一个具体的行动判断:不要将”国防AI市场由专业小公司主导”简单地视为健康的市场分工。它可能是,但它同样可能是一个正在积累系统性风险的治理盲区。关注这个领域的下一个关键节点:当第一起由缺乏安全治理的军事AI系统引发的重大事故发生时,今天的采购逻辑将面临根本性的重新审视。

这个时刻何时到来,没有人能准确预测。但它到来的概率,正在随着当前的激励结构持续积累。


主题分类:监管政策


参考资料

  1. The Anthropic-Pentagon Standoff Reveals Who Governs AI — Paulo Carvao / Forbes, 2026-03-04

  2. Anthropic co-founder confirms the company briefed the Trump administration on Mythos — TechCrunch, 2026-04-14

  3. Anthropic is facing a wave of user backlash over Claude performance issues — Fortune, 2026-04-14

  4. Project Glasswing: Securing critical software for the AI era — Anthropic官方博客, 2026年

  5. The Anthropic–Pentagon Showdown — Fuzzylabs, 2026年

  6. Automated Alignment Researchers: Using large language models for alignment research — Anthropic Research Blog, 2026年

  7. Anthropic Economic Index report (March 2026) — Anthropic Research Blog, 2026-03

  8. How Google’s Project Maven Sparked a Culture War — New York Times, 2018-06-01

  9. Shield AI raises $543 million in Series F funding — Reuters, 2023-11-29

  10. Acquiring Artificial Intelligence for the Department of Defense — RAND Corporation, 2024

  11. Defence AI Centre: Strategic Approach — UK Ministry of Defence, 2024

  12. AI Index Report 2025 — Stanford HAI (Human-Centered Artificial Intelligence), 2025

  13. Federal AI Procurement Trends Analysis — Bloomberg Government, 2025

  14. Maintaining the AI Chip Competitive Advantage of the United States and Its Allies — CSIS (Center for Strategic and International Studies), 2025