Google的四方棋局:当AI推理时代来临,那个叫Nvidia的芯片皇帝开始感到孤独


一、一个让Broadcom股价下跌的消息

2026年4月20日,星期一,一则消息让Broadcom股价下跌近2%,同时让Marvell股价上涨接近6%。

这则消息来自科技媒体The Information:Google正在与Marvell Technology洽谈合作开发两款新AI芯片——一款内存处理单元(Memory Processing Unit,MPU),配合自有TPU在推理场景下处理海量数据搬运;另一款是推理优化TPU,专门针对大型语言模型在实时对话和搜索场景下的低延迟响应。

这两款芯片的设计方向,都指向同一个战场:AI推理。

要理解这则消息的重量,需要先了解一个重要背景。直到此时,Google的定制AI芯片(TPU系列)一直是由Broadcom负责ASIC芯片设计的。两家公司关系之深,以至于就在两周前,他们刚刚将合作协议延长到了2031年,并将这份合作扩展到了Anthropic——Broadcom CEO Hock Tan在财报电话会议上宣布,2027年将为Anthropic提供超过3GW的算力,来自Google的TPU集群。

然后,就在这纸密约签署两周后,Google开始悄悄和Marvell谈了。

这不是背叛,这是战略。而理解这场战略,需要先理解一个经常被忽视的事实:AI训练和AI推理,对芯片架构的要求根本不同,是两种截然不同的物理挑战。

二、训练时代和推理时代:两种截然不同的算力逻辑

过去5年,AI行业几乎所有的注意力,都集中在一个维度:训练谁的模型更强、参数量更大、Benchmark得分更高。

训练任务的核心特征:计算量极大、高度并行、对时延不敏感(多花几周训练没关系)、批量处理(batch size越大越高效)。Nvidia H100等GPU的架构为这种场景做了深度优化——数千个CUDA核心同时处理庞大的矩阵运算,在训练场景下接近最优。

推理任务的核心特征则截然不同:用户输入一个问题,模型要在几百毫秒内生成回答;每次请求相对独立;真正的瓶颈不是算力,而是内存带宽——即每秒能从内存搬运多少数据到计算单元。

这个区别可以用一个具体数字说明:在运行大型语言模型(比如有1000亿参数的模型)推理时,每生成一个token,系统需要从内存中读取约100-200GB的模型权重。Nvidia H100的内存带宽是3.35 TB/s,这听起来很快——但面对数千用户并发请求,每个请求都要读取上百GB的权重,带宽依然是明显瓶颈。算力核心大部分时间处于等待状态,这是GPU架构在推理场景下的根本性低效。

相比之下,专门为推理设计的芯片,可以针对这个工作负载模式优化内存层级:把最常用的模型权重放在离计算单元更近的高速内存,减少数据搬运的延迟和能耗。Marvell的核心技术方向之一——”Compute-near-Memory”(计算接近数据)架构——正是从根本上解决这个瓶颈:不是把数据搬到计算单元,而是把计算推到数据所在的地方。

简单说:训练是算力主导,推理是带宽主导。两者需要完全不同的芯片设计哲学。 GPU是为训练的世界观而生的,用它做推理,像是用挖掘机送外卖——能干,但浪费严重。

三、Google的TPU帝国与Marvell的战略机会

Google是全球最早、最坚定投入自研AI芯片的科技公司。2016年,当大多数竞争对手还在靠Nvidia GPU跑TensorFlow时,Google已经在内部数据中心悄悄部署了第一代TPU(Tensor Processing Unit)。到2026年,Google的TPU已经发展到第6代(代号Trillium),支撑着搜索、YouTube推荐、Gmail写作助手背后的数以万计TPU集群。

然而,Google自己设计芯片架构,但不自己制造芯片。在架构设计完成之后,还需要专业的芯片设计服务公司(ASIC Design Service)将架构方案转化为可以送去台积电流片的实际硅片设计——包含精确到纳米级的布线规划、时序分析、功耗优化等高度专业化工程,是积累了数十年的行业Know-how。这份工作过去几乎全部由Broadcom承担。

Marvell的机会,来自推理场景的特殊需求。

Broadcom是通用ASIC设计的顶级公司,其优势在于处理复杂的大型芯片设计、管理规模庞大的设计团队、协调台积电等制造商的流片排期。但”通用”有时意味着”在专用场景不是最优解”——当Google需要为推理场景构建高度定制的内存架构(专为注意力机制的KV-cache优化设计的MPU),Marvell在数据中心存储处理和内存子系统设计领域多年积累的专有技术,成为了差异化优势。

Marvell的技术路线在半导体界并不神秘,但鲜为AI圈所了解:他们在网络芯片、存储控制器、数据中心互联等领域深耕多年,形成了独特的”以数据为中心”设计理念。这与推理时代”内存带宽主导”的需求高度契合,使Marvell成为了Google在Broadcom之外引入的最自然的选择。

市场反应验证了这个判断:Marvell 2026年3月随强劲财报股价上涨超过20%,4月随Google合作消息再涨近6%,累计涨幅接近50%。投资人在用价格表达他们的押注。

四、四方棋局:一张正在形成的AI芯片供应链地图

理解Google + Marvell这步棋,还需要看清整体格局。

Google现在的AI芯片供应链,已经演变成了一个精心构建的四方联盟

第一方:Google(需求方+架构设计方)

  • 自主设计TPU架构,掌控算法与硬件的协同优化
  • 通过Google Cloud向外部客户销售TPU算力(Anthropic是最大客户,2026年Anthropic年化收入超过300亿美元,其中大量来自Google Cloud算力)

第二方:Broadcom(训练+通用推理的主力合作伙伴)

  • 合作协议延续至2031年,覆盖训练TPU和通用推理场景
  • 同时服务Meta(1GW MTIA定制芯片协议)和Anthropic(2027年3GW TPU算力)
  • 是AI芯片设计服务市场当前体量最大的玩家

第三方:Marvell(推理专用芯片的新伙伴)

  • 负责内存处理单元(MPU)和推理优化TPU的设计
  • 核心优势在高带宽内存架构和低延迟推理场景的芯片设计

第四方:MediaTek(边缘推理场景的潜在合作方)

  • CNBC报道提及Google正在构建四方供应链,MediaTek在其中
  • 在移动端AI推理芯片(APU)领域有深厚积累,苹果之外重要的边缘AI芯片厂商之一
  • 可能负责边缘推理和端侧部署场景的芯片设计

这个四方结构不是偶然的,它代表了一种战略清醒:没有任何一家供应商可以满足AI推理时代全谱系的需求,也不应该让任何一家供应商掌握过多的议价筹码和技术控制权。

对于Google而言,依赖单一供应商Nvidia的潜在风险日益凸显:供货延期(H100/H200交货周期一度超过一年,在AI军备竞赛最激烈的阶段造成重大产能焦虑)、价格高企(Nvidia长期保持60-70%以上的毛利率,在AI需求爆炸时期缺乏定价谈判空间)、战略独立性受限(Nvidia同时是OpenAI、Anthropic、xAI等竞争对手的核心供应商,买Nvidia的芯片,等于部分地资助了竞争对手的武器库)。

自研加多方供应商策略,是打破这个困局的唯一途径。这是Google在10年前就开始布局、今天开始进入收获期的战略长棋。

五、2026年的AI芯片融资热潮:挑战者们的资本武装

Google的战略布局,只是更大行业趋势的一个缩影。

根据Dealroom的数据,2026年全球AI芯片初创公司已经融资超过83亿美元,全年有望创下历史纪录。这波资金浪潮的背后,是投资人对”推理时代到来”的集体押注。

几个值得深入了解的案例:

Cerebras Systems(10亿美元融资):其WSE(Wafer Scale Engine)是整块晶圆大小的芯片,比普通芯片大几百倍,省去了芯片间通信的延迟和带宽限制。在大型语言模型推理上展现了远超H100集群的吞吐量,吸引了一批对延迟极度敏感的企业客户。

MatX(5亿美元融资):由前Google TPU团队核心工程师创办,他们亲手打造过Google内部的推理基础设施,对TPU的限制了解最深。MatX的芯片专门针对大型Transformer模型的推理优化设计,目标是将每次推理成本降至现有GPU的十分之一以下。

Etched(5亿美元融资):押注最激进的策略——把整块芯片全部硬编码为运行Transformer架构,不支持其他计算模型。如果Transformer架构继续主导大语言模型(目前看来几乎是确定的),Etched的能效比将远超任何通用架构芯片,但这是一个全押注策略,几乎没有退路。

Fractile(北约创新基金NIF投资,计划融资超1亿美元):专注低精度量化推理,让原本需要在数据中心运行的大型模型,可以在更廉价甚至端侧硬件上运行。北约创新基金的参与,也给这家公司添加了国防和政府应用的战略色彩。

Euclyd(计划融资超1亿美元):代表了欧洲在AI芯片领域争夺战略话语权的努力,在AI基础设施不再完全依赖美国供应商的趋势下,欧洲本土芯片公司可能获得政策性的政府采购支持。

这些公司的共同叙事是:GPU不是为推理而生的,Nvidia在推理时代的统治地位并不稳固。

Nvidia的回应强度与资金量级相匹配:2025年12月以约200亿美元收购AI推理初创公司Groq资产(Nvidia有史以来规模最大的收购案,被广泛解读为防御性布局推理市场);2026年3月向两家光子互连技术公司投资40亿美元,押注用光信号代替铜线来解决芯片间通信瓶颈;2025财年研发支出超过180亿美元,约占年营收的18%。

这是Nvidia在清醒地防御,不是坐以待毙。但防御者的优势正在转化为资源消耗战,而挑战者们只需要在一个细分场景击穿护城河即可。

六、AI推理经济学:为什么推理成本是最重要的约束变量

训练和推理的本质区别,从商业模式视角来看最为清晰,也最为紧迫。

训练大型AI模型像建造一座工厂:成本极高(数亿到数十亿美元),但它是相对一次性的投入(每隔一段时间发布新版本重新训练),对时效性要求没有那么苛刻。这是可以通过融资、资本预算来管理的资本支出(CapEx)。

推理则是工厂每天向每个用户交付产品:成本持续累积,随使用量线性甚至超线性增长。更关键的是,用户对AI服务的价格预期是越来越便宜,同时对AI的调用频率却在指数级增长。这是需要日复一日管理的运营支出(OpEx),而且边际成本不降反升的情况随时可能将AI业务逼入亏损。

这就是推理经济学的核心矛盾:调用量飞速增长,可收取的单价持续下降,唯一出路是大幅降低每次推理的单位成本。

以数量级来估算这个问题的规模:主流AI对话产品每天的推理调用量在数亿至数十亿次量级(各家公司具体数字未完全披露,此为行业分析师估算范围)。若粗略按照每次推理成本0.001美元计算,10亿次/天的调用量就意味着100万美元/天的芯片成本,全年超过3.6亿美元——而大多数AI产品的年收入仍在数十亿美元量级,推理成本是营收中不可忽视的重大项。

更重要的是:当AI调用量继续成倍增长,但芯片效率不随之提升,推理成本将成为压垮AI商业化模型的大山。这不是杞人忧天——这是ChatGPT、Claude、Gemini等每一家头部AI服务都在日夜面对的现实压力。

专用推理芯片承诺的正是:同样的芯片投入,处理10倍甚至100倍的推理请求。如果做到,不只是芯片公司盈利,更重要的是,会有大量此前”不经济”的AI应用场景——实时医疗影像分析、工厂级别实时质检、每个学生都有的个性化AI导师——开始在商业上变得可行。

推理芯片效率的每一次数量级突破,都是AI从精英工具向普惠基础设施进化的一步。

七、Nvidia的真实护城河:不只是硅,而是生态系统

公正地说,Nvidia的护城河远不只是芯片性能,而是一个建立了近20年的完整生态系统。

CUDA生态系统是Nvidia最深的护城河。自2006年推出以来,CUDA已经积累了超过400万注册开发者;全球主要深度学习框架(PyTorch、TensorFlow、JAX)都深度依赖CUDA;全球顶尖AI实验室几乎所有工程师,代码基础都建立在CUDA之上。这不只是数字,这是20年的工程师教育成本和代码资产积累。

切换到非Nvidia芯片,对一个中型AI团队意味着数个月的工程时间用于代码迁移、性能调试和基础设施重建——成本很可能超过新硬件本身的开销。这种”迁移成本高墙”让很多理论上更高效的芯片,在现实中难以取代H100。

Nvidia的商业策略正是围绕这个护城河构建:用CUDA维持软件层锁定,用NVLink(GPU集群互联总线)建立集群级标准,用DGX系统打包销售完整AI基础设施解决方案。不只卖芯片,卖整个堆栈,让客户深深嵌入其生态之中。

但护城河并非坚不可摧。

正在发生的变化是开放编译器生态的崛起:OpenXLA(Google主导开源项目)、Triton(OpenAI发起、现已广泛使用)等框架允许开发者用更抽象的方式描述AI计算图,编译器自动适配不同硬件后端。理论上,如果这套体系成熟,写一次模型代码,可以在Nvidia GPU、Google TPU、Cerebras WSE上无差别运行,硬件迁移成本将从数月缩短至数天。

值得关注的是:Google是OpenXLA最大的推动力量之一。这不是巧合,而是深思熟虑的战略布局——Google既在推进硬件多元化(四方供应链),又在建设让硬件多元化成为可能的软件基础设施(OpenXLA开源编译器)。

这是Google战略中最常被媒体忽视的一层:硬件多元化和软件开放化是同一枚硬币的两面。 单独推进任何一方都是不完整的——没有开放的软件生态,硬件多元化只是概念;没有多元化的硬件竞争,开放的软件生态缺乏商业动力。Google正在同时推进两者,这是它与其他AI公司策略的根本差异。

八、地缘政治维度:AI芯片已经不只是商业问题

任何关于AI芯片的深入讨论,在2026年都无法回避地缘政治维度。

美国对中国的出口管制,已经把高端AI芯片变成了真正意义上的战略资源。Nvidia H100对中国的禁运,一方面促使中国加速自研AI芯片(华为昇腾系列在受限条件下取得了可观进展);另一方面也让美国盟友开始反思:如果AI算力是战略资源,是否也应该减少对单一国家/单一公司的依赖?

这种反思已经在政策层面转化为行动:欧盟在AI法案中明确提及算力主权概念,并着手构建欧盟AI基础设施(EISEI计划);印度通过IndiaAI Mission(AWS等云服务商参与)推动国家级AI基础设施建设;日本通过政府补贴推动Rapidus建设本土先进芯片制造能力;韩国、台湾各自以不同方式构建AI芯片供应链安全体系。

在这个大背景下,Google四方芯片供应链的意涵超越了成本优化:这是超大规模科技公司开始用国家级战略思维管理技术供应链的信号。多方供应商体系在任何单个供应商遭遇危机时,保证了核心AI能力的连续运转。

这对中型企业也有启示:你的AI算力供应商是谁,已经不只是一个采购决策,而是一个涉及业务连续性的战略选择。

九、三层洞察:这场芯片战争真正改变了什么

第一层(大多数人看到的):Google引入Marvell,标志着AI芯片供应链多元化加速。Broadcom和Marvell都会从AI芯片定制服务市场的爆炸性增长中受益,这不是零和游戏,而是整体市场扩张驱动的多赢局面。83亿美元涌向推理芯片初创,是行业对这个判断的集体押注。

第二层(仔细分析才能看到的):推理成本是AI商业模式的核心约束变量,而非边际成本。推理芯片效率每提升一个数量级,就会解锁一批此前在经济上不可行的AI应用场景。这个过程不是线性改善,而是临界点式的突破——某个成本阈值之下,AI从”企业才用得起”变成”每个人都用得起”,应用生态发生质变。

第三层(大多数人没看到的):这场供应链博弈本质上是AI时代的基础设施主权争夺战。Google同时推进硬件多元化(四方供应链)和软件开放化(OpenXLA),目标是让算力这种生产要素像水和电一样——廉价、可靠、来源多样。当年互联网从专线变成宽带,普通人突然可以看视频、听音乐、开网店——AI推理成本的断崖式下降,将触发同等量级的应用爆炸,彻底改写”谁能用得起AI”这个问题的答案。受益的不只是Google或者Marvell,而是每一个使用AI的人,和每一个用AI构建产品的团队。

十、结尾:孤独的皇帝

Nvidia依然是2026年最有价值的半导体公司,这一点毋庸置疑。它在训练芯片市场的统治地位无人能在短期内撼动,CUDA生态护城河仍然是这个行业最深的技术壁垒。

但在推理时代的棋盘上,越来越多的棋子正在出现。Google在和Marvell谈新芯片。83亿美元在涌向各路挑战者。MatX、Etched、Cerebras在磨刀霍霍。OpenXLA和Triton在悄悄拆解软件层护城河。

Nvidia没有在睡觉——200亿美元收购Groq、40亿美元押注光子技术、每年超过180亿美元的研发支出,证明这位皇帝对威胁有着清醒的认知和强烈的防御意志。

这场战争的终局不会是Nvidia倒下,而是AI基础设施的版图从单极变成多极。Nvidia在它最强的地方继续强,Marvell在内存架构上找到席位,Cerebras在超大规模推理上发力,MatX在能效比上打开新可能。每一种芯片在最适合自己的场景找到位置,推理成本沿着曲线持续下降,AI向每一个角落渗透。

而那时候,Google今天下的这步四方棋局,会被人们重新翻出来,写进商业教科书里。


参考资料

  1. CNBC,”Marvell pops on report it will help Google with custom AI chips. Broadcom shares sink”,cnbc.com,2026-04-20,https://www.cnbc.com/2026/04/20/marvell-stock-google-custom-ai-chips.html
  2. CNBC,”Nvidia AI chip rivals attract record funding as competition heats up”,cnbc.com,2026-04-17,https://www.cnbc.com/2026/04/17/nvidia-ai-chip-rivals-funding-euclyd-fractile.html
  3. CNBC,”Broadcom agrees to expanded chip deals with Google, Anthropic”,cnbc.com,2026-04-06,https://www.cnbc.com/2026/04/06/broadcom-agrees-to-expanded-chip-deals-with-google-anthropic.html
  4. CNBC,”Meta commits to one gigawatt of custom chips with Broadcom”,cnbc.com,2026-04-14,https://www.cnbc.com/2026/04/14/meta-commits-to-one-gigawatt-of-custom-chips-with-broadcom-as-hock-tan-agrees-to-leave-board.html
  5. The Information,”Google Talks to Marvell to Build New AI Chips”,theinformation.com,2026-04-19
  6. Dealroom,”AI chip startup funding data 2026”,via CNBC,2026-04-17