当Anthropic同时对Amazon和Google说'我需要你':2000亿美元Google Cloud承诺揭示的AI算力主权困境
2026年5月5日,《The Information》独家报道了一个足以改变AI行业力量格局的数字:Anthropic已承诺未来五年内向Google Cloud支出2000亿美元,用于云计算和芯片采购(来源:Reuters/The Information,2026-05-05)。
如果这个数字让你感到震惊,请先暂停一下,重新审视Anthropic过去18个月的算力承诺总账:
- Amazon:累计投资$130亿 + 潜在里程碑追加$200亿 = 上限$330亿股权投资;同期Anthropic承诺向AWS未来10年累计采购超$1000亿算力(来源:Ars Technica,2026-04-21)
- Google Cloud:5年$2000亿采购承诺(2026-05-05新披露)
- CoreWeave:多年算力采购协议(金额未披露)
- Amazon芯片:2026年底前获得近1GW Trainium算力
一家估值900亿美元的私人AI公司,已经以”未来采购承诺”的形式绑定了超过$3000亿的云厂商依赖关系。
这不是AI公司的成功故事。这是一张正在浮现水面的算力主权账单。
数字背后的结构性困境
要理解这个数字的含义,需要先理解它出现的背景。
2026年,Anthropic正处于一个罕见的同时繁荣与脆弱的时期:Claude系列模型保持技术领先,付费用户数量快速增长,企业合同持续扩张;但与此同时,支撑这些增长所需的算力需求已经超出了任何单一基础设施供应商在短期内的供给能力。
这就是为什么Anthropic需要”双云”——甚至”多云”。在AI行业,算力不只是成本,更是竞争力的直接来源:谁能更快、更稳定地运行更大规模的训练任务,谁就能在下一代模型能力上取得领先。
Amazon提供的是什么?
- 270亿美元级别的战略股权投资(锚定大股东关系)
- Trainium系列自研AI芯片的优先访问权(数据中心级别,1GW以上)
- AWS企业分发渠道(覆盖大量已有企业客户基础)
- Bedrock平台的深度集成(Claude成为AWS托管模型的核心选项)
Google Cloud提供的是什么?
- TPU系列训练芯片(Google自研,训练效率与Nvidia H100竞争,尤其是大规模矩阵运算场景)
- 5年采购协议的可预期性,确保未来数代Claude模型训练的算力供给稳定性
- GCP企业分发渠道(独立于AWS的第二触达路径,覆盖不同的企业客户群体,尤其在欧洲和亚太市场有独特优势)
- Google早期作为Anthropic股东的历史合作关系(Google参与了Anthropic的早期融资轮次,双方合作关系从资本层延伸至算力层,构成更紧密的战略绑定)
表面上看,Anthropic在构建一个”不把鸡蛋放在同一个篮子里”的多元化供应策略。但实际上,当你同时对两家竞争对手云厂商做出数千亿美元的采购承诺时,你已经不是在”多元化”,而是在向所有主要云厂商证明自己的全面依赖性。
$2000亿与$1000亿:谁更需要谁?
一个微妙但重要的问题:Anthropic向Google Cloud承诺的$2000亿(5年)与向Amazon承诺的$1000亿(10年),哪个更能反映双方的真实权力关系?
从金额密度分析:
- Google Cloud承诺:$2000亿/5年 = 年均$400亿
- Amazon承诺:$1000亿/10年 = 年均$100亿
年均采购额相差4倍,这说明什么?最可能的解释是两种不同的战略功能分工:
Google Cloud = 模型训练的核心算力中枢 Google TPU系列(尤其是TPU v5e/5p/未来版本)在大型语言模型训练上具有独特优势——Google设计TPU的初衷就是大规模矩阵运算,而这恰好是Transformer架构模型训练的核心工作负载。$2000亿的大部分,可能用于未来两代Claude模型的训练算力。
大型语言模型的训练是一次性、高强度的算力消耗事件:训练一个参数量在1000亿以上的模型,单次训练运行可能需要数千到数万张高端GPU/TPU连续运行数周甚至数月。随着Anthropic Claude的参数规模持续扩大,每一代模型训练所需的算力呈指数级增长。这是$2000亿数字如此之大的根本原因。
Amazon AWS = 推理服务和企业分发的基础设施底座 Trainium系列芯片在推理侧性能正在快速提升,而AWS的企业客户基础是Anthropic扩展商业规模的最快路径。与训练相比,推理是一种持续性的算力消耗——每一次用户的Claude查询、每一个API调用,都需要算力支撑。随着Claude用户规模增长,推理成本将成为Anthropic运营支出中增速最快的部分。$1000亿的10年承诺可能更侧重于推理部署和企业级API服务的运行成本。
这个功能分工,如果成立,揭示了AI独角兽算力链的一个新的全栈结构:训练在Google,推理在Amazon,产品在自己。这也意味着,Anthropic Claude每一次能力的提升(通过Google TPU训练),都会带动推理成本的增加(落在Amazon AWS)——一个完美的算力账单自我扩张循环。
值得注意的是,这种分工并非Anthropic独创。行业中正在形成一种新的模式:AI模型公司利用不同云厂商的差异化算力优势——Google TPU用于大规模训练,AWS Trainium/Inferentia用于推理优化,Nvidia CUDA生态用于通用兼容性——构建多云算力策略。OpenAI也有类似的多云布局趋势。区别在于,Anthropic的承诺金额规模和与主要股东(Amazon)的深度交叉,使得这种策略的潜在利益冲突更加复杂。
为什么Google要接受这样一份采购合同?
一个同样值得思考的问题:Google Cloud为什么愿意与Anthropic签署这份5年$2000亿的采购协议?
Google拥有自己的Gemini模型,而且是Anthropic在企业AI市场的直接竞争对手。向一个竞争对手提供云服务和算力,是否存在战略上的自我矛盾?
表面矛盾,实质不同:
Google Cloud和Google DeepMind(Gemini开发部门)是两个有着不同P&L目标的业务单元。Google Cloud的核心KPI是云收入增长和市场份额,在云市场”三大巨头”中仍与AWS、Azure存在规模差距。Anthropic的$2000亿采购承诺,对Google Cloud来说是一笔极其确定的长期订单收入,这对云业务的规模化有巨大的直接价值——即便其中一部分流向竞争对手的AI模型产品。
更重要的是,Google Cloud需要Anthropic来证明自己是顶级AI训练的最佳平台。在企业AI采购决策中,能够服务Anthropic这样的顶级AI模型公司,是Google Cloud技术能力的最强市场信号。”全球最先进的AI模型之一运行在Google TPU上”这一叙事,对Google Cloud潜在企业客户的说服力,远超任何传统的云服务性能测试数据。
Google的早期投资战略延续: 据业内信息,Google是Anthropic最早的外部机构投资方之一,参与了Anthropic成立后的早期轮次以及后续多轮融资。通过这次$2000亿的算力锁定,Google将早期的股权押注,进一步转化为Google Cloud业务的长期营收保障——一种”早期押注前沿AI公司→通过算力服务收回投资价值”的复利逻辑。这种结构性安排使得Google的利益与Anthropic的增长高度绑定:Anthropic训练更多模型、服务更多用户,Google Cloud直接获益。
CoreWeave:第三条腿的战略价值与局限
除了Amazon和Google之外,Anthropic还与CoreWeave签署了多年算力采购协议(具体条款未公开)。这个看似不起眼的决定,实际上揭示了Anthropic算力策略的另一个维度:独立于两大超大规模云厂商的算力冗余节点。
CoreWeave是目前市场上最大的专注型GPU云服务商,以提供高性能Nvidia H100/H200集群著称,2024年完成上市前的最后一轮大额融资,客户包括多家顶级AI研究机构和AI开发公司。对于Anthropic来说,保留一条CoreWeave渠道的意义在于:
短期弹性供给: 当Amazon Trainium芯片产能爬坡不及预期,或Google TPU集群出现计划内维护窗口时,可以快速扩充基于Nvidia生态的算力。这类似于企业采购中的”备用供应商”机制,用确保供应稳定性的议题。
技术风险对冲: Trainium和TPU都是相对年轻的AI芯片生态,与Nvidia CUDA生态相比,软件工具链和第三方框架支持仍在追赶。保留Nvidia生态作为底座,确保模型训练和推理不因单一芯片架构的软件生态成熟度问题而中断。对Anthropic来说,算力中断的代价极高——不仅影响现有用户服务,也会延误Claude下一代模型的训练进度。另外,Nvidia H100/H200集群在全球范围内的机架密度和网络互联方案已经非常成熟,在紧急扩容场景下,CoreWeave提供的Nvidia算力响应速度往往快于自建或大型云厂商的定制芯片集群。
议价筹码(理论上): 多供应商策略在谈判理论上应该增加买方的议价能力。但当你向两家供应商各承诺了数百亿乃至数千亿美元的采购时,CoreWeave的几十亿美元采购额能提供的议价杠杆已经相当有限。这更像是一个保险选项,而非真正的谈判筹码。
然而,真正值得关注的是:随着Amazon和Google在云AI芯片上的持续投入,双方的产品路线图越来越成熟,Trainium3和未来TPU版本的竞争力将持续提升。对Anthropic来说,未来逐步减少CoreWeave依赖的动力将越来越强——因为那将是与Amazon和Google的”采购激励”相容的选择。
900亿估值背后的算力账单
让我们把所有数字放在一起,做一个简单的对比:
| 指标 | 数值 |
|---|---|
| Anthropic最新估值 | $900亿 |
| Amazon已投资额 | $130亿 |
| Amazon潜在最大投资额(含里程碑追加) | $330亿 |
| Amazon 10年算力采购承诺 | $1000亿 |
| Google Cloud 5年算力采购承诺 | $2000亿 |
| 总算力承诺(仅Amazon+Google两项) | ≥$3000亿 |
| 总算力承诺/当前估值比 | ≥3.3倍 |
一家估值$900亿的公司,已经形成了超过自身估值3倍以上的算力采购承诺总量。
这个比例在整个科技行业中几乎找不到先例。即便是历史上最大规模的企业外包合同,也鲜有一家公司同时向多个供应商作出超过自身市值3倍的长期采购承诺。
这不是说Anthropic无法履行这些承诺——事实上,随着AI市场规模的扩大,这些支出可能完全符合商业逻辑。Claude API目前的定价使得每百万token的推理成本在数美元到数十美元区间,随着使用量增长,单位成本下降的同时,总支出也会随之上升。但更根本的问题是:Anthropic当前的收入规模是否能支撑未来这些算力承诺的履行?
据业内估计,Anthropic的年化收入在$10亿至$20亿区间(截至2026年初)。而仅Amazon+Google两项算力承诺的年均支出即超过$500亿。这意味着Anthropic的收入需要在未来几年内增长25倍至50倍以上,才能在不依赖外部股权融资的情况下自主履行这些承诺。
这个增长要求并非不可能——OpenAI的营收增速曾经在某些季度超过300%——但它意味着Anthropic对持续融资和商业化增速的要求极高。一旦增速放缓,算力承诺将成为沉重的财务负担。
从另一个角度理解这个数字的意义:$3000亿的算力承诺,相当于Anthropic以当前估值水平被收购超过三次。这意味着,即便未来某一天出现对Anthropic的大规模并购,收购方首先面对的约束,不是Anthropic的估值谈判,而是如何处理这些已经存在的长期算力采购合同。这实际上为Amazon和Google创造了隐性的”优先处置权”——因为任何试图收购Anthropic的第三方,都必须首先与这两家云巨头达成对这些合同的处置共识。从这个视角看,$2000亿采购承诺本身就是一种防御性的战略安排。
AI主权的悖论:Anthropic的原点与今天的位置
2022年,Anthropic创立时的核心叙事之一是对大型科技公司商业逻辑的某种反思。Dario Amodei在离开OpenAI时所表达的担忧,包括对AI研究独立性和长期安全目标的坚持,以及对过度商业化驱动可能带来的研究方向偏移的警惕。
然而,四年后的今天,Anthropic已经构建了以下结构性依赖关系:
- 最大股东Amazon,持有显著股权,并提供$330亿上限的投资和$1000亿算力承诺
- 早期投资方兼算力供应商Google,5年$2000亿采购协议
- 与华尔街巨头(Blackstone、Goldman Sachs、Hellman & Friedman)成立15亿美元合资企业,推动企业市场商业化
- 同日(2026-05-05)与FIS合作部署金融反欺诈AI Agent
这是一个令人深思的轨迹。
Anthropic从来没有声称要”与云厂商划清界限”——这也是不现实的立场。但当合作承诺累积到$3000亿级别时,”独立判断”这个词的实质内涵,已经与2022年时截然不同。
AWS和Google Cloud都有自己的AI战略,都有自己的旗舰模型(Nova系列和Gemini系列),都有理由在某些关键节点上,希望Anthropic的发展方向与自身商业利益相容。当Anthropic需要Amazon的$200亿里程碑追加以维持估值,或者需要Google TPU产能优先级以确保Claude下一代模型按时训练完成时,这种影响会以什么形式出现?
这个问题没有简单的答案。但它值得被认真对待。
“算力共生体”的下一个发展阶段
2026年4月,我们分析了Amazon-Anthropic $130亿循环资本结构,提出了”算力共生体”的概念:顶级AI模型公司与顶级云厂商之间的关系,已经从客户-供应商演化为深度双向锁定的共生关系(来源:本站2026-04-23分析文章)。
今天的$2000亿Google Cloud承诺,让这个共生关系升维:Anthropic现在同时是Amazon和Google的”算力共生体”。在博弈论意义上,这形成了一个潜在的不稳定三角形——Amazon和Google是激烈的直接竞争对手(都在争夺企业云市场份额,都在押注AI基础设施成为未来的核心战略资产),而Anthropic同时深度依赖双方。
当Amazon和Google的云AI竞争激化时,Anthropic的位置会如何演变?
可能的稳定化路径:
一、算力自主化:Anthropic开发自研推理芯片,逐步减少对外部云厂商的算力依赖。这是最根本的解决方案,但也是最漫长和高成本的路径。目前业内流传着Anthropic有芯片研发团队的消息,但Anthropic官方从未确认。即便开始自研,从立项到首批量产通常需要5-7年。
二、IPO或战略融资:通过公开市场或战略融资获取足够的资金独立性,使算力支出从”外部压力”转变为”主动选择”。IPO将迫使Anthropic建立更透明的财务披露机制,届时算力承诺与收入的比例关系将受到市场的公开审视。
三、收入规模的快速增长:如果Claude的商业化进展超预期——企业级API、与金融机构的联合品牌产品、直接消费者订阅——Anthropic有可能在3-5年内将收入增长到足以支撑这些算力承诺的规模。这是最可持续的路径,也是最依赖外部市场条件(AI应用采用速度、竞争格局)的路径。
结语:$2000亿是一面镜子
Anthropic向Google Cloud承诺的$2000亿,是一个具有历史意义的数字——不是因为它创造了某种商业记录,而是因为它让我们第一次清晰地看到了前沿AI开发的真实成本结构。
训练一代能够真正改变人类生产力的AI模型,需要的资源量级,已经超出了任何一家独立公司能够自给自足的范围。这不是Anthropic独有的困境,而是整个前沿AI行业的结构性特征:算力规模经济所要求的入场门票,已经高于任何一家新兴公司能够独立支付的上限。
这个现实,会对AI行业未来的竞争格局产生深远影响:
- 能够独立支付算力成本的只有三家公司(Google、Microsoft、Amazon/AWS)——它们也恰好都是大模型的开发者和Claude的竞争对手
- 其余前沿AI公司(Anthropic、OpenAI、xAI等)都需要通过与超大规模云厂商建立深度合作来维持竞争资格
- 这种结构性依赖,在技术上是必要的,在战略上充满张力,在治理上可能形成看不见的软性影响
当Dario Amodei在华尔街与Jamie Dimon同台讨论AI将如何改变金融业时,他的公司正在同时向Amazon和Google支付数千亿美元的算力账单,同时与那些AI将取代的金融咨询业务的发起方(Blackstone、Goldman Sachs)共建企业合资公司。
这两件事并不矛盾——AI确实可能改变人类经济,而这个变革本身需要前所未有的算力投入和商业化基础设施。
但在这个转型时刻,知道这张账单的规模,知道谁在承担这张账单,知道这种依赖关系可能在不知不觉间带来什么——是理解AI真实发展路径的必要前提。
$2000亿美元,不是一个宣传数字,是一面镜子。映出来的,是AI主权时代真实的成本与代价。
数据来源:Reuters/The Information(2026-05-05,Anthropic-Google Cloud $200B采购承诺),Ars Technica(2026-04-21,Amazon-Anthropic $130亿投资+$1000亿AWS采购承诺),Fortune(2026-05-05,Anthropic华尔街金融服务战略),本站2026-04-23分析(Amazon-Anthropic循环资本结构深度解析)。