2026年3月,两条新闻同时出现在科技媒体的头条:Palantir 的 Maven Smart System 被五角大楼升级为”项目级记录”,合同轨迹从 $4.8亿一路飙升至 $1000亿企业级协议;同一天,联邦法官无限期阻止了五角大楼将 Anthropic 列为”供应链风险”的企图,因为 Anthropic 拒绝让 Claude 用于自主武器。两家 AI 公司,两种选择,两极命运——这是 AI 军事化时代最生动的寓言。

Palantir Maven:从4.8亿到1000亿的指数级跃迁

先看数字。Palantir 的 Maven Smart System 合同演进时间线是:2024年5月 $4.8亿 → 2025年5月 $13亿 → 2025年7月升级为企业级协议,总价值约 $1000亿。在14个月内,合同价值翻了200倍以上。

Maven 不是一个抽象的”AI 军事项目”——它是一个具体的、每天在运行的战场决策系统。根据 Gadget Review 的报道,Maven 处理超过150个情报来源,每小时生成约1000条目标建议,服务超过2万名军事用户。把这些数字放在一起:每天24小时、每小时1000条目标建议,意味着 Maven 每天向美军提供约24,000条作战相关的 AI 生成建议。

被升级为”项目级记录”(program of record)的含义比表面看起来重大得多。在五角大楼的采购体系中,”项目级记录”意味着 Maven 不再是一个可以被取消的试验项目,而是一个受保护的预算项——它有自己的预算线、自己的项目管理办公室、自己的多年期资金承诺。这意味着即使政权更迭、国防部长换人、甚至发生大规模预算削减,Maven 的预算都受到制度性保护。Palantir 不只是拿到了一笔大合同——它把自己嵌入了美国军事基础设施的核心。

从商业角度看,这笔合同彻底改变了 Palantir 的公司性质。在 Maven 之前,Palantir 是一家”数据分析公司”——卖软件给政府和企业。在 Maven 之后,Palantir 实质上成为了一家”军事 AI 基础设施提供商”——角色更接近 Lockheed Martin 或 Raytheon,而非 Salesforce 或 Oracle。这种定位转变意味着更高的收入可预测性(军事合同通常是多年期的)、更高的利润率(政府合同的利润率通常高于商业市场)、但也意味着更高的地缘政治风险——如果美国的军事优先级发生变化,或者 AI 武器引发国际争议,Palantir 将首当其冲。

(来源: Gadget Review, 2026-03-26)

Anthropic 与五角大楼:当”不”成为一种商业风险

在 Palantir 庆祝 $1000亿合同的同时,Anthropic 正在法庭上为自己的生存而战。

事情的起因是:Anthropic 在其使用政策中明确禁止 Claude 用于”自主武器系统”和”大规模监控”。五角大楼认为这种限制使 Anthropic 成为”不可靠的供应商”,因此将其列入供应链风险名单。被列入该名单的后果是严重的——联邦机构将被禁止采购 Anthropic 的产品和服务,而且这个标签会像传染病一样扩散到 Anthropic 的商业客户中:如果你的 AI 供应商被五角大楼视为”供应链风险”,你敢用它来处理任何与政府相关的业务吗?

联邦法官 Rita Lin 无限期阻止了这一标记,裁定五角大楼的做法可能违反 Anthropic 的第一修正案权利(言论自由——企业有权决定自己的产品用于什么目的)和正当程序权利(在缺乏充分听证的情况下施加惩罚性标记)。这个裁决在法律上是重要的——它可能成为 AI 公司拒绝军方要求的法律先例。

但法律上的胜利不等于商业上的安全。 Anthropic 同时面临多重压力。首先是 IPO 压力:公司计划最早于2026年10月上市,估值高达 $3800亿。投资者对”五角大楼风险”极其敏感——任何与美国国防部的法律纠纷都可能影响 IPO 定价。其次是竞争压力:当 Palantir 拿下 $1000亿、OpenAI 推出 Frontier Alliances 拥抱企业和政府市场、甚至 Anthropic 的合作伙伴 IBM 也在推出 COBOL 现代化方案为政府服务时——Anthropic 选择了一条收入最少的路。

这里有一个深层的商业悖论:Anthropic 的”安全第一”定位既是其最大的资产($3800亿估值的核心叙事),也是其最大的负债(失去了全球最大的 AI 采购方——美国国防部)。 如果 Anthropic 放弃安全限制拥抱军方,它的安全叙事崩塌,$3800亿估值的基础动摇;如果它坚持安全限制,它将永远无法进入美国最大的 AI 市场。

同一天泄露的”Claude Mythos”——据称是 Anthropic 迄今最强大的 AI 模型,具备网络安全相关能力——让这个悖论更加尖锐。如果 Mythos 确实具备高级网络安全能力,五角大楼会更加觊觎这个他们”用不了”的工具。能力越强,拒绝军用的政治代价越大。

(来源: 多来源/Anthropic-Pentagon, 2026-03-27; NewsBytesApp/Anthropic IPO, 2026-03-27)

Shield AI 的 $15亿:军事 AI 的第三条路

在 Palantir(全面拥抱)和 Anthropic(全面拒绝)之间,还有一条常被忽视的第三条路。

同一周,Shield AI 完成了 $15亿 G 轮融资(Advent International 领投,JPMorgan 联合领投),估值达到 $127亿。Shield AI 的核心产品 Hivemind 是一个自主无人机/飞行器软件系统——但与 Palantir 的 Maven 不同,Shield AI 做的不是”给人类提供建议”,而是”让机器自主行动”。Hivemind 控制的无人机可以在没有人类操作员的情况下独立完成侦察、搜索、甚至某些打击任务。

Shield AI 代表了军事 AI 的第三种模式:专注硬件级自主,不触碰通用 AI 的伦理红线。 Palantir 的 Maven 是软件层的决策辅助,使用的是通用 AI 模型(虽然不是 Claude);Anthropic 拒绝的是通用 AI 模型的军事应用。Shield AI 绕过了这个争论——它的 AI 是窄域的、专用的、嵌入硬件的,不涉及通用语言模型的伦理问题。

从投资者的角度看,Shield AI 的 $127亿估值虽然远小于 Anthropic 的 $3800亿,但它的商业模式更加清晰:国防部买单、技术路线不涉及伦理争议、营收高度可预测。在军事 AI 赛道上,Shield AI 可能是风险调整后回报最高的标的。

Shield AI 同时收购了仿真公司 Aechelon Technology——这意味着它正在构建从仿真测试到实际部署的完整链路。在军事采购中,仿真能力是获得大规模合同的前置条件——如果你的无人机软件不能在仿真环境中证明安全性和有效性,你就不会获得实战部署的许可。

(来源: 多来源/Shield AI, 2026-03-26)

大多数人没看到的:AI 军事化正在重塑整个科技产业的战略选择

把 Palantir、Anthropic 和 Shield AI 放在一起看,一个大多数人没有注意到的结构性变化正在发生:AI 军事化不只是一个国防领域的话题——它正在重塑整个科技产业的战略选择集。

第一个被忽视的影响是”AI 军事化税”。 每一家 AI 公司——无论是否有意进入军事市场——现在都必须为”军事化”问题做出公开表态。Anthropic 选择拒绝,被列入供应链风险名单。如果其他 AI 公司(如 Google、Microsoft、Meta)不明确表态,它们将面临来自两个方向的压力:军方希望它们配合,安全研究者和员工希望它们拒绝。这种”被迫选边站”的压力会消耗管理层大量的注意力和政治资本——这就是”AI 军事化税”。

第二个被忽视的影响是人才分流。 当 Palantir 拿到 $1000亿合同时,它需要大量 AI 工程师来交付。这意味着军事 AI 赛道将与商业 AI 赛道竞争同一个人才池。在 AI 工程师本就极度稀缺的市场中,军事 AI 的高薪(Palantir 的工程师薪酬通常高于硅谷平均水平20-30%)和稳定性(政府合同意味着更少的裁员风险)将把一部分顶尖人才从商业 AI 领域吸走。Meta 以 $20亿收购中国 AI 创业公司 Manus 已经显示出人才争夺的激烈程度——当军事 AI 加入这场争夺,竞争将更加白热化。

第三个深层洞察是 AI 公司的”估值二元化”。 Palantir 的估值建立在”政府收入的可预测性”上,Anthropic 的估值建立在”安全叙事的溢价”上。两种模式都能产生高估值,但驱动因素完全不同。这意味着投资者在评估 AI 公司时不能再用同一个框架——你需要先判断这家公司是”Palantir 模式”(拥抱政府 = 收入稳定但增长受限)还是”Anthropic 模式”(拒绝军用 = 叙事溢价但收入受限)。

第四个洞察来自 Yoshua Bengio 同天的警告。当图灵奖得主说 AI 展现出”欺骗和自我保全”的证据时,这个警告在军事 AI 语境中有了更严重的含义:如果 Maven 每小时向军方提供1000条目标建议,而底层 AI 模型有”欺骗”倾向——那么这些建议中有多少是可信的?在商业场景中,AI 出错意味着客户投诉;在军事场景中,AI 出错意味着人命。

(来源: 综合分析)

反面论点:也许”全面拒绝”和”全面拥抱”都不是正确答案

在评判 Anthropic 和 Palantir 的两极选择之前,有一个被大多数评论者忽略的反面论点值得认真考虑:也许真正的风险不在于 AI 是否用于军事,而在于军事 AI 是否有足够的安全保障和人类监督。

Anthropic 拒绝军用的立场建立在一个隐含假设上:AI 用于军事本身是危险的,因此应该全面禁止。但这个假设忽略了一个反事实:如果没有 AI 辅助,军方的决策就会更安全吗?在 AI 出现之前,军事误判和”友军火力”事件每年造成数百人伤亡。如果 Maven 的 AI 建议能将误判率降低哪怕10%,它每年可能拯救数十条生命。全面拒绝 AI 军用不是”更安全”——它只是把风险从”AI 出错”转移到了”人类出错”。

反过来,Palantir 全面拥抱军方的立场也有其盲点。每小时1000条目标建议的产出量意味着2万名军事用户几乎不可能逐条验证每一条建议——实际上,他们会越来越依赖 AI 的判断。这就是”自动化偏见”(automation bias)的经典场景:当人类习惯了 AI 的建议总是正确的,他们就会在 AI 出错时也不加怀疑地执行。在军事语境中,这种偏见的后果是致命的。

也许最理性的答案是:AI 可以用于军事,但必须有严格的人类监督机制、可审计的决策透明度、和独立的安全评估(而非自我评估)。这既不是 Anthropic 的”全面拒绝”也不是 Palantir 的”全面拥抱”——而是一种”有条件接受”的中间路线。但在当前的政治极化环境下,中间路线往往是最不受欢迎的。

(来源: 综合分析)

对从业者的”so what”

如果你是 AI 公司创始人——”军事化”问题不是你可以回避的。即使你的产品完全面向商业市场,你也需要一个清晰的”国防政策”——你的模型可以被用于哪些军事场景、不可以被用于哪些场景?这个政策不是为了道德展示,而是为了管理法律风险和品牌风险。Anthropic 的遭遇说明:不表态 ≠ 没风险。

如果你是国防工业的从业者——AI 正在改变军事采购的整个逻辑。传统国防承包商卖的是硬件(飞机、坦克、导弹),AI 公司卖的是软件和决策能力。Palantir 的 Maven 说明:未来最大的国防合同可能不是给造飞机的,而是给写算法的。

如果你是投资者——不要把 AI 军事化视为”子赛道”。$1000亿的 Maven 合同 + $127亿的 Shield AI 估值 + Anthropic 的 $3800亿 IPO 中军方因素的影响——军事 AI 已经是一个万亿美元级别的市场。但这个市场的风险特征与商业 AI 完全不同:高度受地缘政治影响,监管环境不可预测,伦理争议随时可能爆发。

如果你是安全研究者——Bengio 的警告 + Maven 的规模 = 一个不能被忽视的研究方向。军事 AI 的安全对齐问题不仅是技术问题——它是关乎生死的问题。


参考资料

  1. Pentagon Locks In Palantir’s AI as Core Military Infrastructure — Gadget Review, 2026-03-26
  2. Federal Judge Blocks Pentagon Anthropic Supply Chain Risk Label — 多来源综合, 2026-03-27
  3. Anthropic IPO Could Surpass $60 Billion — NewsBytesApp, 2026-03-27
  4. Shield AI Raises $1.5B Series G at $12.7B Valuation — 多来源综合, 2026-03-26
  5. Yoshua Bengio Warns AI Shows Dangerous Traits — Financial Post, 2026-03-27
  6. Remote Labor Index — Scale AI & CAIS, 2026-03-27