3.5GW的权力游戏:Anthropic-Google-Broadcom算力协议如何重写AI产业的底层规则
2026年4月6日,Anthropic在官方博客上发布了一则看似寻常的合作公告:与Google和Broadcom签署多GW级下一代TPU算力协议,预计2027年开始上线。公告措辞克制,但数字震撼——Reuters同日确认,这笔交易涉及约3.5GW的AI计算容量 (来源: Reuters, 2026-04-06)。
3.5GW是什么概念?一座典型的大型核电站机组输出功率约1-1.4GW,3.5GW大致相当于3座大型核电站机组的总输出 (来源: World Nuclear Association, Nuclear Power Reactors)。换一个参照系:丹麦全国的年均电力负荷约为4GW左右(峰值约6-7GW),3.5GW已接近这个北欧国家平均负荷的近90% (来源: Danish Energy Agency, Energy Statistics 2024)。一家成立不到5年的AI模型公司,正在锁定一个接近中等发达国家日常电力消耗量级的算力资源,用于训练和推理它的下一代Claude模型。
但真正值得深度拆解的,不是这个数字本身的夸张程度。而是这笔交易所揭示的AI产业权力结构正在发生的根本性重组:模型公司不再是芯片巨头的下游客户,它们正在成为算力基础设施的锚定租户——甚至是共同设计者。这种关系的重构,将深刻影响从芯片设计到电力规划、从云计算定价到地缘政治博弈的整条价值链。
1. 交易结构解剖:3层嵌套的权力契约
表面层:算力采购
Anthropic官方公告的核心信息是:签署多GW级下一代TPU算力协议,2027年上线 (来源: anthropic.com, 2026-04-06)。这意味着Anthropic将获得基于Google下一代TPU(大概率是TPU v6或其后续迭代)的大规模计算集群访问权。
关键细节在Reuters的报道中更为清晰:Broadcom与Google签署的是一份延续至2031年的长期协议,内容涵盖”开发和供应未来几代定制AI芯片及其他AI机架组件” (来源: Reuters, 2026-04-06)。这不是一次性的芯片采购,而是一份跨越5年、覆盖多代芯片迭代的深度绑定合同。
中间层:三方共生架构
这笔交易的独特之处在于它的三方结构。传统的芯片供应链是线性的:芯片设计公司(如NVIDIA)→ 代工厂(如台积电)→ 云服务商(如AWS)→ 终端客户(如AI公司)。但Anthropic-Google-Broadcom的协议打破了这条线性链:
- Google 提供TPU架构设计和云基础设施(GCP数据中心)
- Broadcom 负责定制芯片的物理设计、封装和关键互连组件(包括其业界领先的网络交换芯片和高速SerDes技术)
- Anthropic 作为锚定租户,以多年承诺的算力消费量为整条供应链提供需求确定性
这不是简单的买卖关系,而是一种”需求锁定换优先供给”的战略互锁。Anthropic用长期消费承诺降低了Google和Broadcom的投资风险,换取的是优先获得下一代算力的权利——在算力极度稀缺的2027年,这种优先权的价值难以估量。
深层:对NVIDIA生态的结构性对冲
这是大多数分析忽略的第3层。Anthropic目前的主要云合作伙伴是Amazon(AWS),其在AWS上运行的Claude服务使用的是NVIDIA GPU(主要是H100和B200系列)。Anthropic在官方公告中刻意强调”Amazon仍为主要云合作伙伴” (来源: anthropic.com, 2026-04-06),但3.5GW的TPU算力协议意味着Anthropic正在构建一条完全独立于NVIDIA的算力供应通道。
为什么这很重要?因为在2025-2026年的AI基础设施军备竞赛中,NVIDIA GPU的供应一直是最大瓶颈。NVIDIA对其GPU的分配拥有近乎垄断的话语权——谁能拿到多少B200/B300,在什么时间节点交付,很大程度上取决于NVIDIA的战略判断。对于收入快速增长的Anthropic来说,将全部算力命脉系于NVIDIA一家,是不可接受的战略风险。
通过这笔TPU协议,Anthropic实际上构建了一个”双轨算力架构”:NVIDIA GPU(通过AWS)+ Google TPU(通过GCP/Broadcom)。这不仅是供应链冗余,更是对NVIDIA定价权的结构性制衡。当你有替代选项时,你在谈判桌上的地位截然不同。
2. 数字背后的经济学:从$90亿到$300亿的增长引擎需要什么
Anthropic在公告中披露了一组惊人的增长数据:年化收入(run-rate revenue)已突破300亿美元,而2025年底这个数字约为90亿美元 (来源: anthropic.com, 2026-04-06)。同时,年消费超过100万美元的企业客户从500家翻倍至1000+ (来源: anthropic.com, 2026-04-06)。
对收入数据的审慎解读
这组数据需要审慎对待。首先,”年化收入”(annualized run-rate revenue)是将最近一个月或一个季度的收入乘以12或4得到的推算值,它反映的是当前的收入速率,而非实际已确认的全年收入。这意味着如果Anthropic在2026年Q1签下了几笔大型企业合同(例如与政府机构或大型金融机构的年度订阅),其单月收入可能出现跳跃式增长,从而推高年化数字——但这种增速未必能在全年持续。
其次,从$90亿到$300亿的跳跃(约233%的增长)发生在不到5个月内,这在SaaS/AI行业中极为罕见。作为对比,OpenAI在2024年的年化收入从约$34亿增长至约$50亿(增幅约47%),已被视为高速增长 (来源: The Information, 2024-10-04)。Anthropic的增速如果属实,意味着其增长曲线远陡于同行。可能的解释包括:(a) 大型企业客户的批量签约在Q1集中落地;(b) Claude Code等开发者工具带来的用量爆发;(c) API调用量的非线性增长。但在缺乏独立第三方审计或季度财报验证的情况下,我们应将这一数字视为”公司自报的最乐观口径”,而非已确认的财务事实。
收入增长与算力需求的非线性关系
即便对收入数字打一定折扣,Anthropic的增长轨迹仍然惊人,其算力需求的增长逻辑是清晰的。AI公司的成本结构中,算力(训练+推理)通常占总成本的60-80%。以300亿美元的年化收入计算,即使假设其毛利率为50%(这在AI模型公司中已属乐观),其年化算力支出也在150亿美元量级。
但这只是当前的数字。AI模型公司的算力需求增长通常快于收入增长,原因有3个:
-
模型规模的指数增长:每一代旗舰模型的训练算力需求通常是上一代的3-10倍。近期Claude Code源码因npm Source Map意外泄露的事件中,出现了Anthropic内部的下一代模型代号——”Capybara”(Claude 4.6)和”Fennec”(Opus 4.6)(来源: InfoQ, 2026-04-07)。需要指出的是,泄露代码中的信息可靠性存在不确定性——这些代号可能是测试占位符、已废弃的项目分支,或仅反映某个开发阶段的规划。但即便如此,Anthropic持续迭代下一代模型是确定的,而每次迭代都将需要远超当前的训练算力。
-
推理需求的爆发式增长:随着企业客户从1000家向更大规模扩展,推理(inference)算力需求的增长可能比训练更快。特别是Claude Code源码中出现的”KAIROS自主守护模式”和”ULTRAPLAN云端规划”等字段 (来源: InfoQ, 2026-04-07)——如果这些确实代表正在开发的功能——暗示Anthropic正在构建需要持续运行、长时间推理的Agent系统。这类系统的算力消耗远超传统的请求-响应模式。
-
多模态与长上下文的算力乘数效应:视觉、音频、超长上下文窗口等功能的每一次升级,都会显著增加单次推理的算力消耗。
3.5GW的经济账
按照当前数据中心的能效水平(PUE约1.1-1.3),3.5GW的IT负载对应的总电力消耗约为3.85-4.55GW。以美国工业电价约$0.06-0.08/kWh计算(来源: U.S. Energy Information Administration, 2025 Electric Power Monthly),仅电力成本一项,年化支出就在20-32亿美元。加上芯片折旧、冷却、运维等成本,3.5GW数据中心集群的年化总运营成本可能在80-120亿美元区间。
这意味着Anthropic正在为2027-2031年期间锁定一个年化数十亿到上百亿美元级别的算力承诺。这笔承诺的规模,只有在Anthropic对自身收入持续高速增长有极强信心的前提下才合理。
换个角度看:如果以300亿美元年化收入为基准,Anthropic正在为自己预定一个可能消耗其年收入30-40%的算力基础设施。这不是一家公司在”采购服务器”,这是一家公司在押注自己的未来将大到足以消化一个国家级的电力消耗。
3. Google的算盘:TPU的第二春与云业务的战略转向
从自用到外供:TPU商业模式的根本转变
Google的TPU(Tensor Processing Unit)自2016年首次亮相以来,一直主要服务于Google内部的AI工作负载——搜索排名、YouTube推荐、Gmail智能回复等。虽然Google Cloud也向外部客户提供TPU租用服务,但其市场份额与NVIDIA GPU相比微不足道。
这笔与Anthropic的协议标志着TPU商业模式的根本转变:Google不再仅仅是”顺便把多余的TPU租出去”,而是在为外部客户专门规划和建设GW级的TPU算力基础设施。这是一个从”内部工具外溢”到”战略性外部产品”的质变。
为什么Google愿意做这个转变?因为Anthropic提供了一个Google内部团队无法提供的东西:需求确定性。
数据中心投资的最大风险不是建设成本,而是利用率。一个耗资数十亿美元的数据中心如果利用率低于60%,其单位算力成本将急剧上升,投资回报率将大幅恶化。Anthropic的长期算力承诺,本质上是一份”保底订单”——它保证了Google新建TPU数据中心的基础利用率,使得整个投资的风险收益比大幅改善。
Google Cloud的竞争逻辑
从Google Cloud的角度看,这笔交易还有更深层的竞争意义。在云计算”三巨头”(AWS、Azure、GCP)的AI算力竞争中,GCP一直处于相对弱势:
- AWS 拥有Anthropic作为深度合作伙伴(Amazon已通过多轮投资累计向Anthropic注资约80亿美元 (来源: CNBC, 2023-09-25; Amazon官方新闻稿, 2024-03-27)),同时通过Trainium自研芯片和NVIDIA GPU提供算力
- Azure 与OpenAI深度绑定,是GPT系列模型的独家云合作伙伴
- GCP 虽然有DeepMind和Gemini,但在外部AI客户争夺战中缺乏”锚定租户”
Anthropic的这笔TPU协议,实际上让GCP获得了一个重量级的外部AI客户——一个年化收入数百亿美元、增速惊人的客户。这对GCP在企业AI市场的信誉度和吸引力是巨大的提升。
但这里存在一个微妙的张力:Anthropic同时是AWS的核心AI合作伙伴和GCP的大客户。Anthropic在两大云平台之间的”脚踏两条船”,实际上增强了它自身的议价能力——任何一方都不敢给出太差的条件,因为Anthropic可以把更多工作负载迁移到另一方。
Broadcom的角色:被低估的关键先生
在这笔三方交易中,Broadcom的角色最容易被忽视,但可能是最关键的。
Broadcom在AI芯片生态中的核心价值不是计算核心本身(那是Google TPU团队的工作),而是3个关键领域:
-
定制芯片的物理设计与制造管理:Broadcom是全球最大的ASIC(Application-Specific Integrated Circuit)设计服务商之一。Google的TPU虽然由Google架构团队设计逻辑,但物理实现、与台积电的制造对接、封装设计等大量工程工作由Broadcom完成。
-
高速互连技术:大规模AI集群的性能瓶颈往往不在单个芯片的算力,而在芯片之间的通信带宽。Broadcom的Jericho3-AI网络交换芯片和高速SerDes(串行/解串行器)技术,是构建数万甚至数十万TPU互连集群的关键组件。
-
AI机架整体架构:Reuters报道中提到Broadcom将为Google供应”next-generation AI racks”的组件 (来源: Reuters, 2026-04-06)。这意味着Broadcom不仅提供芯片,还在参与整个AI机架的系统级设计——包括电源管理、散热、光互连等。
Broadcom在这笔交易中的战略收获是巨大的:一份延续至2031年的长期合同,保证了其AI业务线至少5年的收入可见性。Reuters报道指出,消息公布后Broadcom股价在盘后交易中上涨 (来源: Reuters, 2026-04-06)——市场认为这份合同显著降低了Broadcom AI业务的不确定性。
4. 对NVIDIA的冲击:围城之内与围城之外
直接冲击:3.5GW的替代效应
3.5GW的TPU算力,如果全部用NVIDIA GPU来实现,大约相当于多少块GPU?
这个问题需要谨慎估算,因为TPU和GPU的架构差异使得简单的功耗换算并不精确。但我们可以建立一个量级参考:以NVIDIA B200为例,单卡功耗约700W,加上配套的CPU、内存、网络、存储和冷却系统,每块GPU的系统级功耗约1.5-2kW。3.5GW的IT负载大约对应175万-233万块B200级别GPU的系统级功耗当量。
但这里有几个重要的caveat必须说明:
- 性能不等价:TPU和GPU在不同工作负载上的效率差异显著。Google TPU在Transformer类模型的训练和推理上经过深度优化,可能在每瓦性能上优于或劣于GPU,取决于具体任务。因此,”功耗当量”不等于”性能当量”。
- 分阶段部署:3.5GW不会在2027年一次性全部上线,而是在2027-2031年间逐步建设和部署。
- 增量vs替代:部分算力可能是满足Anthropic新增需求,而非从NVIDIA现有份额中直接替代。随着AI市场整体扩张,这可能是一个增量市场。
考虑到这些因素,更保守的估算是:这笔交易在其完整生命周期内,可能从NVIDIA的潜在可寻址市场中分流数百亿美元量级的算力需求。具体数字取决于部署节奏、TPU/GPU性能比和市场增长速度,但量级是清楚的——这是一笔对NVIDIA有实质影响的交易。
间接冲击:示范效应
比直接的市场份额分流更重要的是示范效应。Anthropic是全球排名前3的AI模型公司,它选择大规模采用非NVIDIA算力,向整个行业发出了一个明确信号:NVIDIA不是唯一选择。
这个信号对其他AI公司的影响可能比3.5GW本身更大。Meta已经在开发自己的MTIA芯片;Amazon的Trainium系列芯片已经迭代到第3代(Trainium3于2025年底发布);Microsoft也在开发Maia AI芯片。这些自研芯片项目一直面临一个”鸡生蛋”的困境:没有足够的软件生态和客户验证,就难以证明其可行性;没有可行性证明,就难以获得足够的内部投资。
Anthropic-Google-Broadcom的协议,实质上为”非NVIDIA路线”提供了一个强有力的可行性证明。如果Anthropic——一家以模型质量著称的公司——愿意将数GW级的工作负载放在TPU上,那么其他公司的自研芯片团队在内部争取资源时,就有了一个强有力的论据。
NVIDIA的护城河:CUDA生态依然深厚
但我们不应过度夸大这笔交易对NVIDIA的冲击。NVIDIA的核心护城河不是芯片本身的性能,而是CUDA软件生态。全球数百万AI开发者、数万个开源模型、数千个AI框架和工具链,都是基于CUDA构建的。这个生态的迁移成本是天文数字。
Google TPU使用的JAX/XLA编程栈虽然在性能上已经可以与CUDA媲美,但其开发者社区规模、第三方工具丰富度、调试便利性等方面仍有差距。Anthropic能够大规模使用TPU,部分原因是其内部团队有足够的工程能力来克服这些软件层面的摩擦——但大多数AI公司并不具备这种能力。
此外,NVIDIA在2025年的数据中心业务收入已超过$1150亿(FY2026财年前三季度累计约$880亿,全年预计超$1150亿)(来源: NVIDIA Investor Relations, FY2026 Q3 Earnings),其市场规模远大于任何单一替代方案能够撼动的范围。
因此,更准确的判断是:这笔交易不会在短期内颠覆NVIDIA的市场地位,但它标志着AI算力市场从”NVIDIA垄断”向”多元竞争”格局转变的一个重要里程碑。NVIDIA的市场份额不会崩塌,但其定价权将被逐步侵蚀。
5. 更深层的洞察:算力协议作为AI产业的”主权债券”
大多数分析将这笔交易理解为一次大规模的算力采购。但如果我们退后一步,从更宏观的视角审视,这笔交易的本质更接近于一种新型的”产业主权债券”。
算力即货币
在AI产业中,算力正在扮演类似于石油在20世纪工业经济中的角色——它是一种基础性的、稀缺的、战略性的资源。控制算力供应的能力,直接决定了一家AI公司的模型迭代速度、服务规模和竞争地位。
Anthropic的这笔3.5GW协议,本质上是用未来的收入流(年化数百亿美元且快速增长)作为”抵押”,提前锁定了一个关键战略资源的长期供应权。这与主权国家发行长期债券来资助基础设施建设的逻辑高度相似——你用未来的税收(收入)来担保当前的投资。
从”按需租用”到”长期锁定”:大多数人没看到的结构性转变
这笔交易标志着AI算力市场从”按需租用”(on-demand)模式向”长期锁定”(committed capacity)模式的结构性转变。这个转变的深远意义,是大多数观察者尚未充分认识到的。
在传统的云计算模式中,客户按需租用算力,按使用量付费。这种模式的优点是灵活性,缺点是在供不应求时无法保证获得足够的资源。对于年消费数十亿美元算力的AI模型公司来说,”按需租用”模式的风险已经不可接受——如果在关键的模型训练窗口期无法获得足够的GPU/TPU,可能意味着数月的竞争劣势。
但这种转变的真正含义超越了单纯的供应链管理。当算力从”按需商品”变为”长期锁定资产”时,AI产业的竞争逻辑从”谁的算法更好”转变为”谁能提前锁定更多基础资源”。 这与石油行业的演变惊人地相似:早期的石油公司靠勘探技术竞争,但最终决定行业格局的是谁控制了油田开采权和长期供应合同。
我们已经看到这一趋势在加速:
- Microsoft 与OpenAI的合作本质上也是一种长期算力绑定,Microsoft承诺为OpenAI提供数百亿美元的算力支持
- Meta 通过自建数据中心和自研芯片来确保算力自主权,2025年资本支出预算高达$600-650亿 (来源: Meta Q4 2024 Earnings Call, 2025-01-29)
- xAI 以惊人的速度在孟菲斯建设了超大规模GPU集群
Anthropic的TPU协议是这一趋势的最新——也是最大规模的——案例之一。
对中小AI公司的挤出效应
这种”长期锁定”模式的一个重要副作用是对中小AI公司的挤出效应。当Anthropic、OpenAI、Google、Meta等巨头通过长期合同锁定了大部分高端算力供应时,留给中小AI公司的算力将更加稀缺、更加昂贵。
这实际上在加速AI产业的”寡头化”:只有少数几家拥有足够资金和收入规模来签署GW级算力合同的公司,才能在前沿模型竞赛中保持竞争力。其他公司将被迫在更小的规模上运营,或者专注于不需要大规模算力的垂直应用。
Reuters报道中提到的印度IT行业的困境,正是这种挤出效应的一个缩影:Anthropic和Palantir等AI工具对传统IT外包模式的冲击,导致印度IT股年内下跌约20% (来源: Reuters, 2026-04-06)。当AI巨头锁定了算力、构建了强大的模型,传统IT服务商的生存空间将被进一步压缩。
6. Amazon的尴尬位置:投资者、合作伙伴与竞争对手的三重身份
Anthropic在公告中特意强调”Amazon仍为主要云合作伙伴”,这句话的潜台词值得深思。
Amazon已通过2023年9月的初始投资($12.5亿)和2024年3月的追加投资($27.5亿),以及后续轮次,累计向Anthropic注资约80亿美元 (来源: CNBC, 2023-09-25; Amazon官方新闻稿, 2024-03-27; The Information, 2024-11-22),是Anthropic最大的外部投资者之一。AWS是Claude模型的主要部署平台。但现在,Anthropic正在将数GW级的算力需求分流到Google的TPU上——这些算力本来可能在AWS上使用NVIDIA GPU或Amazon自研的Trainium芯片来满足。
这对Amazon来说是一个战略困境:
- 作为投资者,Amazon希望Anthropic成功,因为Anthropic的估值增长直接影响Amazon的投资回报
- 作为云服务商,Amazon不希望Anthropic的算力支出流向竞争对手GCP
- 作为芯片开发者,Amazon的Trainium芯片团队可能会感到被”绕过”——如果Anthropic需要非NVIDIA的算力替代方案,为什么不选择Amazon自己的Trainium?
这个三重身份的矛盾,揭示了AI产业中一个更深层的结构性问题:当你的客户同时是你的投资对象和竞争对手的客户时,传统的商业关系框架已经无法描述这种复杂性。
Amazon可能的应对策略包括:
- 加速Trainium芯片的迭代,使其性能和软件生态能够与TPU竞争
- 为Anthropic提供更优惠的AWS算力定价,以留住更多工作负载
- 在下一轮融资中增加投资,以增强对Anthropic战略决策的影响力
但无论Amazon如何应对,Anthropic通过这笔TPU协议已经明确表态:它不会将自己的算力命脉完全交给任何一家供应商。这种”多云+多芯片”的策略,在降低Anthropic自身风险的同时,增加了所有供应商的不确定性。
这里有一个大多数人没有注意到的博弈论维度:Anthropic的”脚踏两条船”策略,实际上创造了一个AWS和GCP之间的持续竞价机制。每当一方提供更优条件,另一方就面临失去工作负载的压力。Anthropic作为”稀缺的超大规模AI客户”,在这个博弈中处于天然的优势地位。这种动态,可能比任何单一技术突破都更深刻地影响未来几年云计算市场的定价结构。
7. 电力与物理世界的约束:AI的终极瓶颈
3.5GW的算力协议把一个经常被软件行业忽视的问题推到了聚光灯下:电力。
电力供应的现实约束
3.5GW的数据中心集群不是你签完合同就能立即建成的。它需要:
- 电力接入:找到能够提供3.5GW稳定电力供应的地点,这通常意味着需要靠近大型发电设施或高压输电枢纽
- 电网升级:大多数现有电网的输配电容量无法支持单个用户的GW级需求,需要进行大规模的电网基础设施升级。美国电网互联排队(interconnection queue)的平均等待时间已超过5年 (来源: Lawrence Berkeley National Laboratory, Queued Up 2024 Report)
- 环境许可:GW级数据中心的建设需要通过环境影响评估、水资源使用许可等审批流程
- 建设周期:从选址到投产,一个大型数据中心通常需要18-36个月
协议中”预计2027年开始上线”的表述暗示,Google和Broadcom可能已经在2025年甚至更早就开始了相关的选址和基础设施规划。这意味着这笔交易的谈判可能持续了1年以上——在AI行业的时间尺度上,这是一个异常长期的战略规划。
核能复兴与AI的意外联姻
GW级AI算力需求正在推动一场能源领域的结构性变革。传统的化石燃料发电在碳排放和长期成本方面面临越来越大的压力;可再生能源(风电、光伏)的间歇性使其难以满足数据中心7×24小时不间断运行的需求。
这使得核能——特别是小型模块化反应堆(SMR)——成为AI数据中心的理想电力来源。Microsoft已经与Constellation Energy签署了重启三里岛核电站的协议 (来源: Bloomberg, 2024-09-20);Amazon已经投资了多个SMR项目。Google在2025年也与Kairos Power签署了SMR购电协议 (来源: Google Blog, 2024-10-14)。
Anthropic的3.5GW算力需求,几乎必然涉及新的电力基础设施投资。如果这些电力来自核能或可再生能源,那么这笔算力协议实际上也是一笔能源基础设施投资——其影响将远超AI行业本身。
地缘政治维度
GW级数据中心的选址不仅是一个工程问题,也是一个地缘政治问题。数据中心的物理位置决定了数据主权归属、适用的法律框架、以及在极端情况下的安全风险。
美国政府近年来对AI算力的出口管制日益收紧,特别是对中国的芯片出口限制。2025年1月发布的”AI扩散规则”(AI Diffusion Rule)进一步限制了先进AI芯片向特定国家的出口 (来源: U.S. Bureau of Industry and Security, 2025-01-15)。GW级的AI算力集中部署在美国本土,既符合美国政府的战略利益(确保最先进的AI能力留在美国),也意味着Anthropic的算力供应完全处于美国法律和政策的管辖之下。
这对Anthropic的全球业务扩展可能带来挑战:欧盟的数据主权法规(如GDPR和AI Act)可能要求某些数据处理在欧盟境内完成;亚太地区的客户可能对延迟敏感的应用需要本地算力支持。如何在GW级集中式算力与全球分布式部署之间取得平衡,将是Anthropic未来几年面临的重要战略问题。
8. 对立视角与判断
看多方的论点:AI算力需求将持续指数增长
看多方认为,3.5GW的算力投资是完全合理的,甚至可能不够。其核心论据是:
-
模型能力的提升远未触顶:从GPT-3到GPT-4到Claude 4.x,每一代模型的能力跃升都伴随着算力需求的数量级增长。如果这个趋势持续(看多方认为会),那么2027-2031年的算力需求将远超当前水平。
-
Agent应用将带来推理算力的爆发:如果Claude Code泄露中出现的KAIROS自主守护模式 (来源: InfoQ, 2026-04-07) 确实代表了Anthropic的产品方向,AI Agent将从”一次性对话”转变为”持续运行的自主系统”。这种模式的算力消耗可能是当前的10-100倍。
-
企业客户的付费意愿已经验证:1000+家年消费超过100万美元的企业客户 (来源: anthropic.com, 2026-04-06),证明了市场对高端AI能力的付费需求是真实且快速增长的。Anthropic首席经济学家Peter McCrory在Fortune专访中指出,AI已能胜任许多白领工作的大部分任务 (来源: Fortune, 2026-04-07)——这意味着AI的可寻址市场远大于当前的软件市场。
-
历史类比支持看多:Amazon Web Services在2006年推出时,很多人认为”谁需要这么多云计算?”。20年后,全球云计算市场规模超过$6000亿。AI算力市场可能正处于类似的早期阶段。
看空方的论点:过度投资的风险不容忽视
看空方的核心担忧是:
-
算力需求可能不如预期:如果算法效率的提升速度快于模型规模的增长(如稀疏化、蒸馏、推测解码等技术的进步),那么实际的算力需求增长可能低于预期。DeepSeek-V3在2024年底展示了以远低于预期的算力训练出高性能模型的可能性 (来源: DeepSeek Technical Report, 2024-12-26),这为”算力效率可能快速提升”提供了证据。历史上,互联网泡沫时期的光纤过度投资就是一个前车之鉴——2000年铺设的大量光纤直到2010年代才被充分利用。
-
收入增长的可持续性存疑:300亿美元的年化收入是否可持续?还是部分来自一次性的企业采购和”试用期”效应?如果经济衰退导致企业IT预算收缩(Fortune报道中提到了经济衰退风险 (来源: Fortune, 2026-04-07)),Anthropic的收入增长可能放缓。值得注意的是,run-rate revenue天然倾向于放大短期趋势——如果Q1有几笔大合同集中落地,年化数字会显得格外亮眼,但这未必代表全年的稳定增速。
-
长期合同的刚性风险:GW级的长期算力承诺意味着巨额的固定成本。如果AI市场出现意外变化(如开源模型大幅缩小与闭源模型的差距,或监管政策收紧),Anthropic可能面临”骑虎难下”的困境——合同签了,但需求没跟上。
-
TPU软件生态的迁移风险:将大规模工作负载从NVIDIA CUDA迁移到Google TPU的JAX/XLA栈,工程复杂度可能超出预期。如果迁移过程中出现严重的性能问题或延迟,Anthropic可能面临”新算力到位但无法充分利用”的尴尬局面。
我的判断
我认为这笔交易在战略层面是正确的,但在执行层面存在显著风险。总体而言,我倾向于看多方,但对时间线持谨慎态度。
战略正确性在于:在AI算力供不应求的大环境下,提前锁定供应是理性选择。等到需要时再去抢算力,成本会高得多,而且可能根本抢不到。Anthropic的”双轨算力”策略(AWS NVIDIA + GCP TPU)也是明智的风险分散。即使最终只有60-70%的锁定算力被充分利用,避免”算力断供”的战略价值也足以证明这笔投资的合理性。
执行风险在于:3.5GW的建设和运营是一个极其复杂的工程挑战,涉及电力、冷却、供应链、人才等多个维度的协调。任何一个环节的延迟或失误,都可能导致数十亿美元的沉没成本。此外,TPU的软件生态成熟度仍然不如NVIDIA CUDA,大规模迁移工作负载到TPU可能面临比预期更多的工程摩擦。
最关键的变量是Anthropic的收入增长能否持续。如果收入在未来2-3年内继续保持强劲增长(即使不是当前的233%年化增速,哪怕是年化翻倍),那么3.5GW的投资将被证明是远见之举。如果增长显著放缓至50%以下,这笔投资可能成为沉重的财务负担——但即便如此,其作为NVIDIA对冲工具的战略价值仍然存在。
9. So What:这对你意味着什么
对AI从业者
算力的”寡头化”趋势意味着,如果你在一家中小AI公司工作,获取前沿算力的难度和成本将持续上升。你的公司需要在算法效率上做更多创新(DeepSeek的路径已经证明这是可行的),或者找到不需要GW级算力的差异化竞争路径——比如垂直领域的精调模型、端侧推理、或基于开源模型的应用层创新。
对企业IT决策者
Anthropic的多云策略(AWS + GCP)意味着,你在选择AI供应商时,不必担心被锁定在单一云平台上。但你需要关注的是:你选择的AI模型公司是否有足够的算力保障来支撑其服务的可靠性和性能?在算力稀缺的环境下,有长期算力合同的公司(如Anthropic)比没有的公司更值得信赖。同时,这也意味着你应该开始评估自身业务对AI算力的中长期需求——如果你的AI用量预计将快速增长,提前与云服务商签署committed use agreements可能比按需付费更经济。
对投资者
这笔交易的最大受益者可能不是Anthropic本身(其估值已经极高),而是Broadcom。Broadcom通过这份至2031年的长期合同,获得了AI业务线的高度收入可见性。同时,Broadcom作为ASIC设计服务商的角色,使其成为”非NVIDIA AI芯片”趋势的核心受益者——无论是Google的TPU、Amazon的Trainium、还是其他公司的定制芯片,很多都需要Broadcom的设计服务和互连技术。另一个值得关注的投资主题是AI数据中心的电力基础设施——从核能(如Constellation Energy、NuScale Power)到电力设备(如Eaton、Vertiv)——3.5GW的需求将直接拉动这些领域的增长。
对整个行业
这笔交易标志着AI产业正在从”软件驱动”阶段进入”基础设施驱动”阶段。在这个新阶段,竞争的关键不仅是谁的模型更聪明,更是谁能获得更多、更便宜、更可靠的算力。算力协议正在成为AI公司之间竞争的新战场——就像20世纪的石油开采权一样,谁控制了算力供应,谁就控制了AI的未来。
3.5GW的协议只是开始。在接下来的12-24个月里,我们几乎可以确定会看到更多类似规模的交易。AI产业的权力格局正在被这些GW级的数字重新书写,而大多数人还在讨论模型的benchmark得分。真正决定谁赢谁输的,不是MMLU上的几个百分点,而是谁在2027年拥有足够的瓦特来训练下一代模型。
参考资料
- Anthropic与Google、Broadcom签署多GW级下一代算力协议 — Anthropic, 2026-04-06
- Broadcom signs long-term deal to develop Google’s custom AI chips — Reuters, 2026-04-06
- Claude Code源码因npm Source Map意外泄露 — InfoQ, 2026-04-07
- Anthropic首席经济学家谈AI自动化与白领就业 — Fortune, 2026-04-07
- Indian IT firms face subdued fourth quarter as war, AI concerns persist — Reuters, 2026-04-06
- Amazon and Anthropic Deepen Partnership — Amazon, 2024-03-27
- NVIDIA FY2026 Q3 Earnings Report — 来源: NVIDIA Investor Relations, 2025
- Queued Up: Characteristics of Power Plants Seeking Transmission Interconnection — Lawrence Berkeley National Laboratory, 2024
- Google signs nuclear energy deal with Kairos Power — Google Blog, 2024-10-14
- U.S. AI Diffusion Framework — 来源: U.S. Bureau of Industry and Security, 2025-01-15
主题分类:企业AI应用