Intel x Google AI CPU合作:Agentic AI重新激活CPU需求,加速器时代的终结信号
“扩展AI需要的不仅是加速器,还需要平衡的系统。”
这句话来自Intel CEO Lip-Bu Tan,在2026年4月9日Intel与Google宣布扩大AI CPU合作伙伴关系时发表。这句话本身,就是一个产业信号——AI算力的天平,正在悄悄发生位移。
过去几年,AI产业的算力故事是一个关于NVIDIA GPU的绝对主导叙事。从A100到H100再到B100/B200,每一代加速器的发布都进一步强化了这个叙事:AI需要的是并行计算,是矩阵乘法,是专为深度学习优化的专用硬件。CPU?那是老时代的计算范式,在AI训练时代早就被边缘化了。
现在,这个叙事正在接受挑战。
第一章:Intel x Google合作的具体内容
2026年4月9日,Intel与Google宣布扩大合作,核心方向是AI专用CPU和定制基础设施处理器(IPU)的联合开发与部署。
在合作框架下,Google将继续部署Intel的Xeon服务器处理器,包括最新一代Xeon 6;双方还将共同扩大定制IPU的研发合作——IPU被定位为可以承担传统由CPU处理的计算任务的定制芯片,目标是在AI推理工作负载中实现更高的性能效率比。
从产业结构来看,这次合作具有明确的战略指向:Google正在为其日益增长的Agentic AI工作负载构建一个更均衡的算力基础设施,而Intel正在寻找一个重返AI算力核心圈的机会。
对于Intel来说,这次合作的意义尤其重大。在2021年到2024年的AI训练热潮中,Intel因为缺乏竞争性的GPU产品而大幅失去市场份额,在华尔街和产业界的叙事中被归类为”AI时代的失利者”。Intel的GPU产品线Gaudi 2/3的推出没能逆转局面,市场份额依然惨淡。
但历史往往是轮回的。Agentic AI带来的算力需求结构变化,给了Intel一次不需要在GPU赛道上正面竞争的机会。
第二章:为什么Agentic AI重新需要CPU——技术逻辑的底层
要理解CPU需求的回归,需要先理解AI工作负载的结构性变化。
训练时代的算力范式:训练大型语言模型是一个极端并行的计算任务。你需要同时处理数百亿个参数的梯度计算,在数千个GPU核心上进行矩阵乘法运算,以最高的吞吐量处理海量训练数据。GPU的设计哲学——大量简单计算单元并行运作——完美契合这个需求。CPU在这个场景中确实是多余的。
推理时代的算力范式:模型训练完成后,进入推理部署阶段。早期的推理场景相对简单:用户发送一个查询,模型生成一个回答。这个工作负载仍然有GPU加速的价值,但已经不像训练那么极端依赖并行计算。
Agentic AI带来的新范式:当AI系统从”回答问题”演进为”执行任务”,计算需求的结构发生了根本性变化。一个Agentic AI系统的工作流程大致如下:
- 接收任务目标(例如”帮我完成今天的财务报告”)
- 分解任务为多个子步骤
- 对每个子步骤判断是否需要工具调用(查询数据库?调用外部API?执行代码?)
- 顺序或并行执行工具调用
- 综合结果,判断是否需要修正或重试
- 生成最终输出
这个工作流中有大量的分支判断、条件逻辑、状态管理、工具调用编排——这些计算任务,CPU更擅长处理。GPU的并行计算优势,在高度碎片化的、充满条件分支的代理任务中,边际收益显著递减。
更关键的是,Agentic AI系统通常不是一次调用就完成的;它需要维护一个跨越多轮交互的状态机(state machine)——记住上一步做了什么,当前任务进行到哪里,以及接下来应该调用哪个工具。这种有状态的、顺序性的计算模式,正是CPU的强项。
Intel CEO Tan说的”平衡的系统”,技术含义就在这里:Agentic AI需要GPU(用于复杂推理步骤的模型推断)和CPU(用于任务编排、工具调用管理、状态追踪)的协同工作,而不是全部依赖GPU。
第三章:训练时代vs推理时代vs代理时代——算力格局的三次转变
回顾AI算力格局的演变,可以清晰地看到三个阶段:
第一阶段:训练主导(2020-2024)。这个阶段的核心命题是”谁有最大的GPU集群”。NVIDIA几乎垄断了高端AI训练芯片市场,A100和H100成为AI产业的硬通货。这个阶段的赢家除了NVIDIA,还有云服务提供商(AWS、Azure、GCP)——他们提供GPU集群的租用服务。输家是CPU厂商和非NVIDIA的替代加速器。
第二阶段:推理规模化(2024-2025)。随着前沿模型训练完成并开始大规模部署,推理效率成为新的核心竞争维度。这个阶段出现了两类关键需求:高端推理(需要强大的单机推理能力)和批量推理(需要高效率的规模化处理)。这个阶段,专为推理优化的芯片开始涌现,包括NVIDIA的推理优化产品和各类ASIC推理加速器。
第三阶段:代理计算(2025-至今)。Agentic AI的兴起,带来了完全不同的计算需求特征:任务数量多、单任务计算量相对较小、需要复杂的编排逻辑、对延迟敏感(用户等待时间)、需要频繁的工具调用和状态管理。这些特征,使得”只有GPU”的架构开始显现效率瓶颈,而CPU+GPU协同的均衡架构重新获得关注。
Intel与Google合作的时机,恰好踩在了第三阶段的起点上。 这不是偶然,而是Intel对这一技术趋势的精准押注。
第四章:Intel的复盘时刻——错过GPU训练浪潮,押注CPU推理反扑
Intel的AI历程是近年来科技产业最戏剧性的叙事之一。
2017年,英特尔以153亿美元收购机器学习芯片创业公司Mobileye(以及更早的Nervana Systems),在AI芯片领域做出了战略性押注。但这些押注并没有形成足够的竞争力来挑战NVIDIA在AI训练市场的主导地位。Gaudi 2的性能评测结果在行业内未能获得足够的认可,客户采用率远低于预期。
在NVIDIA市值突破3万亿美元的同期,Intel的市值在持续萎缩,裁员计划不断,内部士气低落。Intel CEO帕特·基辛格(Pat Gelsinger)在2024年底离职,由Lip-Bu Tan接任。
Tan接手的Intel,正处在一个需要重新定义叙事的转折点。他的选择是:不在NVIDIA的主场正面竞争,而是在AI算力格局的下一个转变点寻找差异化入口。
CPU在Agentic AI时代的价值回归,为Intel提供了一个在不与NVIDIA直接竞争GPU的前提下,重新进入AI产业核心叙事的机会。Intel的Xeon处理器在企业数据中心有着深厚的历史根基,与Google这样的超大规模云服务商的合作关系,使得Intel能够在真实的Agentic AI生产环境中验证自己的价值主张。
同时,Intel还宣布将加入Elon Musk的Terafab AI芯片项目,为SpaceX和Tesla的机器人和数据中心需求提供处理器。这是Intel主动接近Agentic AI最大落地场景之一(机器人和自动驾驶)的举动。
Intel的反扑策略不是”我们的AI芯片比NVIDIA更好”,而是”在Agentic AI时代,你需要的不只是GPU,还需要Intel”。 这是一个更聪明的定位——避免在竞争对手最强的地方正面交战,而是在技术范式转换的过程中重新划定战场边界。
第五章:第三层洞察——这是CPU的真正复兴还是NVIDIA主导下的补位游戏?
直接说出这个问题:Intel和CPU的回归,是一次真正的算力格局再平衡,还是只是NVIDIA主导格局下的边缘补位?
冷静评估,答案是:两者都有,但比例不同。
CPU在Agentic AI工作负载中的价值回归,是一个技术事实——碎片化的、有状态的代理计算确实更适合CPU。这不是Intel的PR操作,而是工作负载特征决定的技术逻辑。
但这不意味着NVIDIA的主导地位将被动摇。即使在Agentic AI时代,核心的语言模型推理步骤仍然高度依赖GPU加速;随着模型能力的提升,每个代理任务所需要的推理算力只会增加而不是减少。NVIDIA在推理优化和整体算力生态的布局,并没有因为Agentic AI而失效。
更现实的图景是:Agentic AI系统将需要GPU+CPU+专用编排芯片的协同架构,而不是任何单一芯片的独大。在这个图景中,Intel的CPU有着真实的位置,但这个位置是”重要的组成部分”而不是”新的主角”。
对Intel来说,这已经足够了。不需要打败NVIDIA,只需要在AI产业的核心架构中重新占有一席之地,就可以支撑起一个合理的商业故事。
但问题在于:市场会认可这个叙事,并给Intel足够的估值空间吗?华尔街对Intel的期待,经过这几年的创伤,已经从”AI算力的重要玩家”降低到了”一个需要自证能力的老牌企业”。Lip-Bu Tan的挑战不只是技术上的,还有资本市场信心的重建。
Intel x Google的合作,是这个信心重建工程的一块重要砖。但整栋建筑,还需要时间来完成。
补充分析:从算力格局看中国企业的机会
Intel与Google的合作,还有一个维度值得从中国科技产业的视角来审视。
在AI算力产业格局重新洗牌的过程中,中国的芯片企业和云服务商面临着与Intel类似的困境:英伟达的高端GPU因出口限制无法正常获取,而在训练级算力上与英伟达正面竞争难度极大。华为、寒武纪、壁仞科技等国内芯片企业,在这个背景下,实际上有着与Intel相似的战略选择窗口:不在训练加速器上与英伟达直接竞争,而是针对Agentic AI时代的推理和编排需求开发差异化产品。
华为的昇腾芯片在大模型推理上已经积累了相当的实战经验,特别是在国内云服务商(阿里云、腾讯云、华为云)的生产环境中得到了有规模的部署。如果Agentic AI时代的确带来了CPU+专用编排芯片需求的增长,国内芯片企业在不受出口限制影响的市场里,有着独特的机会。
当然,这个机会的实现有一个前提:国内企业能否快速建立针对Agentic AI工作负载的优化能力,并赢得核心客户的部署信任。这需要的不只是芯片本身的性能,还需要完整的软件栈、开发者工具和应用场景的深度配合——而这正是英伟达的真正护城河所在:不只是硬件,而是CUDA生态系统。
这场算力格局的结构性变化,对于全球和中国芯片产业来说,都是一个值得持续跟踪的战略时间窗口。Intel与Google的合作,是这场更大故事的一个章节。
尾声:Agentic AI算力的新基准,还未确立
一个仍然悬而未决的问题是:Agentic AI时代的算力评估基准,究竟应该如何设计?
目前,AI模型能力的评估主要依赖各类基准测试(benchmark),如MMLU、HumanEval、MATH等。但这些基准测试,主要测量的是模型的单次响应质量,而不是代理任务的执行效率和可靠性。
Agentic AI系统的性能,需要一套全新的评估框架:多步骤任务完成率、工具调用成功率、错误恢复能力、长任务稳定性、成本效率(每个已完成任务的总算力消耗)……这些维度,目前还没有被产业界广泛接受的标准化评估方法。
这个评估标准的缺失,实际上也模糊了CPU和GPU各自在Agentic AI架构中贡献的可量化比较。Intel主张CPU在代理编排中更高效,但如果没有行业认可的标准化测试来支撑这个主张,它就更像是一种叙事定位,而不是可证伪的技术事实。
Intel需要做的,不只是宣布与Google的合作,而是推动建立一套能够客观衡量CPU在Agentic AI系统中价值贡献的行业评估标准。 没有这个基准,CPU的价值主张永远将停留在”需要均衡系统”这样的模糊宣言层面,无法真正影响企业采购决策。
这是Intel在接下来两年最需要完成的技术战略工作之一。
延伸思考:IPU时代的生态博弈
与CPU/GPU讨论并行的,是另一种算力路线正在悄悄形成:基础设施处理器(IPU)。
在Intel与Google的合作中,IPU被特别提及。从定义上看,IPU是一种专为承担特定基础设施计算任务设计的定制处理器,区别于通用CPU(处理所有计算任务)和GPU(专为并行计算优化)。IPU的目标是:把那些原本由CPU承担但相对固定、可以硬件加速的基础设施任务(网络包处理、存储I/O管理、安全加密等)从CPU上卸载,让CPU专注于更灵活的逻辑计算。
在Agentic AI的架构中,IPU有着明确的应用场景:代理系统需要频繁的工具调用(涉及网络通信、API调用)、大量的数据读写(维护状态记忆)和安全边界检查(防止代理逃逸)——这些任务,IPU可以显著降低延迟和CPU占用。
这意味着Agentic AI系统的完整算力架构,将可能是三层叠加:GPU(核心推理)+ CPU(任务编排逻辑)+ IPU(基础设施卸载)。每一层都有其不可替代的功能角色,也意味着每一层都有对应的硬件市场空间。
英特尔和谷歌的联合IPU研发,实际上是在为这个三层架构布局。对于云服务商来说,优化Agentic AI基础设施的总拥有成本,将成为下一阶段数据中心建设的核心命题。哪家公司能够提供最优化的三层协同方案,将在企业算力采购中获得显著优势。
这是一个算力生态博弈,而不只是单一芯片的竞争。Intel x Google的合作,是这场博弈的早期落子。这一轮的赢家,将不只取决于谁的硬件性能更高,而是取决于谁能最早建立起完整的、经过生产验证的Agentic AI算力解决方案栈。
在这个判断框架下,Intel的CPU+IPU战略,比单纯的”CPU回归”叙事,有着更深的战略逻辑。
结语:一次让人不得不重新审视的合作
回到本文开头的那句话:“扩展AI需要的不仅是加速器,还需要平衡的系统。”
这句话放在两年前说,会被认为是落后产品的辩护词。放在2026年的Agentic AI时代说,则开始具有真实的技术依据。
Intel与Google的合作,究竟会成为CPU复兴的历史起点,还是只是一次产业叙事的阶段性修正,现在下结论还为时过早。但它至少已经完成了一件事:把”AI只需要GPU”这个过于简化的叙事,换成了一个更接近技术现实的描述——AI需要的是根据工作负载特征设计的算力生态,而不是单一硬件的暴力堆叠。
这是一个值得被认真对待的进展。不是因为Intel一定能成功,而是因为算力格局的多元化,本身就是一个更健康的行业状态。一个没有NVIDIA GPU独大的世界,对于所有AI从业者来说,都是一个更低风险、更可持续的技术环境。
对于技术从业者和产品经理来说,Agentic AI算力需求的多元化,意味着在系统架构设计时需要更早地开始考虑混合算力方案,而不是默认GPU即一切的路径。在成本、延迟和可靠性的综合优化中,CPU的角色值得被重新评估。
Intel与Google让这个重新评估,有了一个令人信服的起点。
这场从训练时代到推理时代再到代理时代的算力进化,将是未来三年AI基础设施投资的核心主题。谁能在这个进化过程中提前占据正确的位置,谁就能在AI算力这个战略性赛道中保住相关的商业价值。Intel正在用它与谷歌的合作,努力争取成为”正确位置”上的那家公司。
从更宏观的视角来看,这次合作还预示着一种更广泛的产业趋势:AI基础设施的竞争正在从”谁有最强的单一组件”转向”谁能提供最优化的整体系统方案”。在这个新的竞争框架下,生态建设能力、系统整合经验和与核心客户的深度合作关系,将与单纯的芯片性能同等重要。这对于所有AI算力参与者来说,都是一个需要调整竞争策略的信号时刻。
从更长远的视角看,AI应用的发展轨迹会继续推动算力需求的深化和多元化。随着企业部署更多复杂的多步骤代理系统,对编排算力的需求只会增加。Intel在这个趋势的早期阶段与谷歌建立深度合作,为未来的算力市场中捕获更大份额奠定了基础。这个投资能否最终转化为商业成功,将取决于Agentic AI落地速度是否达到Intel的预期——而这个速度,目前看来正在加快。
参考资料
- Reuters, “Intel and Google to double down on AI CPUs with expanded partnership,” 2026-04-09 — https://www.reuters.com/business/intel-google-double-down-ai-cpus-with-expanded-partnership-2026-04-09/
- Reuters, “Intel to join Musk’s Terafab mega AI chip project,” 2026-04-07 — https://www.reuters.com/business/autos-transportation/intel-join-musks-terafab-mega-ai-chip-project-2026-04-07/
- Reuters, “Intel to buy back Apollo stake in Ireland factory,” 2026-04-01 — https://www.reuters.com/world/europe/intel-buy-back-apollo-stake-ireland-factory-142-billion-2026-04-01/