AI换届:当华尔街开始押注Intel、AMD和Micron,Nvidia的垄断叙事正在松动

2026年5月的第二周,资本市场给出了一个令人震惊的信号。

AMD单周上涨25%。Intel单周上涨25%。Micron单周上涨超过37%。光纤电缆制造商Corning单周上涨18%。这4家公司的年内涨幅全部超过100%,Intel领跑超过200%,Micron过去12个月涨幅逼近750%,市值首次突破8000亿美元。

而与此同时,世界上市值最高的芯片公司Nvidia,年内涨幅仅15%——与纳斯达克指数几乎持平。这家公司今年仍然有望实现约70%的营收增长,但在资本市场,它已经不是AI基础设施投资最热的标的了。

Mizuho分析师Jordan Klein,把这一周称为”AI换届”(changing of the guard in AI)。

这不是Nvidia输了。这是AI赢得了足够大——大到一家公司的GPU已经无法容纳整个AI基础设施故事的全部价值。当一个市场的规模足够大、需求足够多元,它必然会溢出单一的供应源,开始寻找更广泛的、分散的解决方案。这是市场成熟的逻辑,也是技术扩散的规律。


一、数字先于叙事:几组让人无法忽视的数据

Micron:供不应求的内存市场

2026年3月,Micron CEO Sanjay Mehrotra接受CNBC采访时说了一句话,当时几乎没有被广泛关注:

“我们的关键客户,目前只能拿到他们需求量的50%到66%。”

翻译成普通人能理解的语言:全球最大的AI芯片消耗方——Nvidia、AMD、谷歌、微软、亚马逊——他们所需要的内存,Micron连需求的三分之二都满足不了。这不是因为Micron产能落后,而是因为AI带来的内存需求增速,远超任何人两年前的预测。

数字是最好的证明:Micron 2026年5月市值突破8000亿美元(此前5月5日刚突破7000亿美元),股价过去12个月上涨近700%。它已跻身美国科技公司市值前10,而一年前它还不在这个名单上。

内存市场几乎被三家公司垄断:美国的Micron、韩国的SK Hynix和三星。这个寡头市场在AI浪潮之前一直被视为低增长的成熟行业,如今摇身变成AI基础设施的关键瓶颈。当供给远跟不上需求,拥有定价权的寡头们,天然地成为了最确定性的投资标的。

Intel:被低估的CPU反弹,因为AI Agent

Intel是这场涨幅中最出人意料的主角。年内涨超200%的成绩,来自一家在AI浪潮初期被普遍视为”掉队者”的公司——它的GPU产品在训练市场几乎被Nvidia彻底击败,其AI加速芯片Gaudi系列始终未能取得突破性的市占率。

那么Intel为什么涨了?

答案是:AI从聊天机器人时代进入了AI Agent时代。

Bank of America的分析师们估算,数据中心CPU市场将从2025年的270亿美元,增长到2028年的600亿美元——超过一倍。这一需求飞跃的核心驱动力,就是AI Agent。

第一代AI产品的算力模式很简单:大量GPU负责推理。你问AI一个问题,AI用GPU把答案算出来,完成。这是一个以GPU为核心的线性计算流程。

但AI Agent的工作模式完全不同。一个Agent在执行任务时,需要同时调度多个工具、管理大量上下文状态、协调子任务之间的依赖关系、处理中间结果并循环迭代。一个复杂的Agent工作流,可能需要同时协调数十个API调用,处理从网页搜索、代码执行到文件读写的各类操作。

GPU处理并行矩阵运算,但CPU负责流程控制、任务调度、中断处理、系统集成——这是Agent架构的神经中枢。当AI从”回答问题”变成”自主执行任务”,数据中心对CPU的需求急速攀升。Intel,凭借其在服务器CPU市场长达数十年的深厚积累,在这个转折点上意外地占据了有利位置。

AMD:从GPU替代者到AI全栈竞争者

AMD的故事相对直观,但同样值得深挖。其Instinct MI300X系列GPU在高性能AI推理市场已经取得了一定份额,成为Nvidia H100的主要替代品之一。2026年5月6日,AMD CEO Lisa Su接受CNBC采访,明确表示AI推理市场的爆炸式增长正在为AMD创造前所未有的机遇,AMD将持续增加对AI芯片研发的投入。

但AMD不只是在做GPU替代。它的CPU业务(EPYC系列服务器处理器)在过去两年持续侵蚀Intel在数据中心CPU市场的份额,分析师估算AMD服务器CPU市场份额已从2023年初的约20%持续攀升。随着AI Agent对CPU的需求激增,AMD同时在GPU和CPU两个市场受益。

这种”双线获益”的产品组合,是AMD年内超过100%涨幅的根本逻辑支撑——它既是Nvidia GPU的替代竞争者,也是Intel CPU的有力挑战者。在AI基础设施多元化的大趋势下,AMD可能是获益最广泛的单一公司:竞争对手的每一张牌都对它有利,无论是算力需求还是流程控制需求,AMD的产品线都能接住。

Corning:被遗忘的AI基础设施

光纤电缆制造商Corning单周18%的涨幅,在这4家公司中最容易被分析文章遗忘,却可能是最具象征意义的一个。

AI数据中心的规模化,不只需要更多的GPU和内存。它需要把这些算力组件以超高带宽、超低延迟连接起来。全球最大的AI数据中心建设浪潮,正在驱动光纤铺设的新一轮高峰——而Corning是全球最大的光纤和光通信组件供应商之一。

每一个新的超大规模AI数据中心,都需要大量的Corning产品把GPU机架彼此连接、把数据中心与外部网络连接。当Anthropic宣布独家使用SpaceX的孟菲斯数据中心(220,000个以上NVIDIA GPU,300兆瓦功率),这背后的网络基础设施建设,就是Corning产品的直接市场。


二、为什么是这个时刻:三重结构性转变

这场投资迁移,为什么发生在2026年5月?不是偶然的市场波动,而是三重结构性转变同时到来。

转变1:AI支出已经从”是否值得”转向”如何规模化”

2023年到2024年,投资者和企业决策者的核心问题还是:AI的ROI能兑现吗?AI真的能产生商业价值吗?

到2026年,这个问题已经被大量企业的财报数据彻底回答了:

  • Cloudflare Q1财报:AI内部使用量3个月增长600%,同期营收创纪录达6.398亿美元(同比+34%)
  • Anthropic Q1:营收和使用量年化增长80倍,CEO Dario Amodei称”太疯狂了,太难应对了”
  • ServiceNow:AI驱动业务,目标四年内营收翻倍至300亿美元

当AI支出从”探索性预算”变成”核心战略预算”,企业的采购行为就会发生质变。不再是买几台GPU做实验,而是需要完整的数据中心生态系统规模化升级:更多内存来支撑大规模推理、更好的CPU来驱动Agent工作流、更快的网络来连接分布式计算节点、更高密度的存储来缓存海量上下文。

AI采购的多样化,是AI商业化成熟的必然结果。

转变2:内存短缺已成为AI扩张的最大单点瓶颈

如果要找一个当前AI基础设施扩张中最明确的技术瓶颈,答案是内存。

Nvidia的最新GPU(H200、即将发布的B200)搭载了大量HBM(高带宽内存),每颗芯片需要消耗大量的HBM容量。AMD的Instinct MI300X同样如此。这两家GPU巨头的出货量越多,对HBM的需求就越大,而HBM的主要供应商就是Micron、SK Hynix和三星。

内存的生产不像软件可以快速扩展——一座新的内存工厂从动工到量产需要2到3年,产能爬坡再要1到2年。这意味着内存短缺不会在明年突然消失。Micron CEO所说的”客户只能拿到需求量的50%-66%”,可能是未来数年内存市场的常态。

当一种商品的供给是需求量的50%-66%,这不是市场失灵,这是持续的定价权和持续的超额利润。资本市场理解这一点,于是它选择押注瓶颈。

转变3:AI Agent架构改写了算力需求的层次结构

这是三重转变中最深层、也最被低估的一个。

第一代AI产品(2023-2024年的聊天机器人时代)的算力需求结构:GPU为主,CPU为辅,内存够用就行,网络带宽不是瓶颈。整个系统的核心价值在于”谁的模型最好”——也就是”谁有最多最好的GPU”。

第二代AI产品(2025-2026年的Agent时代)的算力需求结构:GPU+CPU+内存+存储+网络,缺一不可。一个企业级AI Agent工作流的生产环境,可能同时有数千个Agent在运行,每个Agent都在调度工具、处理上下文、协调子任务。整个系统的性能瓶颈,不再只是GPU推理速度,而是系统各个环节的协同能力。

这是从”买最好的GPU”到”建最好的AI基础设施系统”的范式转变。而在这个系统观下,内存、CPU、网络、存储的重要性被大幅提升,Nvidia GPU的相对权重自然下降——不是因为GPU不重要了,而是因为其他组件变得同样重要了。


三、三个对立视角:华尔街内部并非铁板一块

视角1(看多多元化阵营):AI基础设施进入成熟期,供应链价值开始兑现

这是目前市场的主流声音。核心逻辑是:AI从概念期进入基础设施成熟期的标志之一,是投资从押注”AI明星公司”扩展到”整条AI供应链”。

互联网时代有类似的先例:2000年前后,投资者从押注网站内容扩展到CDN(内容分发网络)、IDC(互联网数据中心)、路由器(思科)、光纤(Corning自身)。AI基础设施的多元化投资,是技术成熟度曲线的自然演进,不是泡沫,而是价值的重新分配。

Micron 750%的涨幅、Intel 200%+的涨幅,在这个视角下都有基本面支撑:前者来自内存供需严重失衡,后者来自CPU在Agent架构中的战略价值重估。

视角2(担忧Nvidia相对估值阵营):过度集中的风险

另一些分析师的观点更审慎:华尔街转向多元化,部分原因是对Nvidia过高集中度产生了本能的风险意识。

2025年底,Nvidia单家公司的市值在峰值时接近3万亿美元,据分析师估算超过整个AI基础设施相关板块(包括Intel、AMD、Micron、Broadcom等)市值总和的一半以上。这意味着,如果你在2025年构建一个”AI基础设施主题组合”,Nvidia一家的权重就会超过50%——这样的集中度,在任何成熟的投资组合理论框架下都是不健康的。当一项技术叙事的投资如此高度集中于单一标的,本身就积累了系统性风险——如果Nvidia有任何负面消息(出口管制收紧、竞争对手突破、供应链问题),整个AI基础设施投资主题都会受到冲击。

从这个角度看,华尔街的多元化押注,也是一种组合风险管理:不减少对AI的总敞口,但分散到更多标的,降低单点风险。

这个视角并不看空AI,而是看空”过度集中于单一公司”的投资策略。

视角3(供应链现实主义阵营):瓶颈就是机会,跟着短缺走

第三个视角最为务实,也是驱动这轮多元化涨势的最直接资金逻辑:找到AI供应链里的结构性瓶颈,买那些拥有瓶颈控制权的公司。

分析框架很简单:

  • AI基础设施扩张最快的环节在哪里?→ 数据中心建设
  • 数据中心建设中,供给最跟不上需求的是什么?→ 内存(HBM)
  • 谁控制着内存供给?→ Micron、SK Hynix、Samsung
  • AI Agent带来的新需求激活了哪个原本平静的市场?→ CPU
  • 谁在CPU市场有最强的供给能力?→ Intel、AMD

按照这个逻辑一步步走,就会自然得出”做多Micron、Intel、AMD”的结论。这不是宏大叙事,这是供需分析。


四、谁受益,谁被忽视,谁被高估

最明确的受益者:Micron + SK Hynix + Samsung

内存寡头三家,在AI浪潮中同时受益于需求激增和供给刚性(新产能建设周期长)。Micron在美国上市,是这三家中最容易获得的投资标的,因此在华尔街资金中最先受到追捧。SK Hynix在韩国上市,Samsung也主要在韩交所交易——两者的涨幅同样显著,只是在美国市场的讨论度稍低。

出乎意料的受益者:Corning + 电力设备公司

Corning的AI光纤故事已经被市场发现(单周+18%)。但为什么AI数据中心对光纤的需求如此直接?机制在于两层:第一,数据中心内部的GPU机架之间,需要用高速光互联模块(100G/400G光模块)连接,这类光模块的核心原材料是Corning生产的光纤;第二,超大规模AI数据中心的外部接入网络,需要大量骨干光纤铺设。Anthropic的孟菲斯数据中心(220,000个以上NVIDIA GPU,300兆瓦功率)这样的设施,从建设阶段就需要采购大量Corning产品。这不是间接受益,而是直接的、刚性的采购需求。

还有一类公司的估值尚未充分反映AI数据中心的受益——电力设备制造商。每个大型AI数据中心需要极大规模的电力基础设施:变压器、配电设备、不间断电源系统。Anthropic的孟菲斯数据中心耗电300兆瓦,相当于一个中等规模城市的用电量,而全球这类超大规模AI数据中心正在快速增加。电力基础设施的供应紧张,可能是继内存之后的下一个AI投资主题。

需要警惕的:借势AI叙事、缺乏基本面的”概念股”

当一个投资叙事开始广泛流行,总会有公司借助叙事透支估值。名字里带”AI”或”Chip”的二三线半导体公司,其中有些缺乏Micron那样清晰的供需逻辑支撑。Micron的涨幅背后是Sanjay Mehrotra说”客户只能拿到需求量50%-66%”的真实短缺,而不是模糊的AI概念。区分”受益于AI实际需求”和”受益于AI叙事热度”,是这轮多元化投资中最重要的判断能力。


五、历史给我们的一个参照

这场”AI换届”背后,有一个被大多数分析文章忽略的历史参照。

AI基础设施投资的扩散,正在重复互联网时代的轨迹——但速度更快,规模更大。

1990年代末,互联网投资的逻辑从”押注最好的网站内容”(Yahoo、Amazon等)逐渐扩展到”押注互联网能跑起来所需要的一切”——骨干网络运营商(WorldCom、Sprint)、路由器制造商(思科,在1990年代末短暂成为全球市值最高公司)、IDC(互联网数据中心)、CDN(内容分发网络,Akamai),乃至铺设海底光缆的公司。

互联网泡沫破裂之后,许多这类基础设施公司倒闭了,但其中最有竞争力的活了下来,并成为了互联网时代最重要的基础设施供应商。思科的市值在2000年超过了5000亿美元,Akamai虽然股价经历腰斩,但其CDN网络成为了后来互联网内容分发的核心基础设施。

AI时代正在以类似的节奏走这条路——从”押注最好的AI模型公司”扩展到”押注AI能跑起来所需要的一切”:GPU(Nvidia)→ 内存(Micron)→ CPU(Intel/AMD)→ 光纤网络(Corning)→ 电力基础设施(待定价)。

不同之处在于:AI时代的这个扩散过程,发生得比互联网时代快得多。互联网从概念到基础设施投资多元化花了将近10年;AI从ChatGPT发布(2022年11月)到现在不到4年,就已经开始进入基础设施投资多元化阶段。

这意味着:这场”AI换届”,远不是结束,而是一轮更大的基础设施投资浪潮的开始。


六、三个值得持续追踪的信号

以下三个指标,将决定这场多元化投资是短期博弈还是长期结构性转变:

信号A:内存HBM的供给缺口什么时候收窄

Micron CEO所说的50%-66%供给比,如果在2027年之前没有明显改善,内存股的强势将继续。两个反转信号:其一,Micron、SK Hynix或三星宣布大规模HBM产能扩张并提前投产;其二,AI模型架构出现重大的内存效率突破(如新型KV-cache压缩技术或内存复用技术),使得同等内存能支撑更多并发推理。任何一个出现,内存股的高溢价都会压缩。

信号B:AI Agent的大规模商业落地是否如期兑现

Intel的CPU反弹故事,建立在”AI Agent激活数据中心CPU需求”的逻辑上。如果2026年-2027年AI Agent的企业级商业化落地不及预期(客户采购意愿受阻、ROI兑现慢于预期、监管合规阻力),Intel的CPU复兴叙事将面临基本面质疑。ServiceNow、Salesforce等企业AI平台的财报,将是这个信号的重要风向标。

信号C:Nvidia的反击棋如何落子

Nvidia不会坐看市场份额重新分配。其下一代Blackwell架构已经内置了更深度的内存集成能力,NVLink互联技术持续提升GPU集群的组网效率。更重要的是,Nvidia正在悄悄进入CPU领域——其基于Arm的Grace Hopper超级芯片(Superchip),将GPU和CPU紧密集成在同一封装内,可能在未来12-18个月内对Intel和AMD的CPU反弹形成直接竞争压力。

如果Nvidia的Grace架构在Agent工作负载上表现出色,”CPU需求回归Intel/AMD”的叙事可能被部分改写。


结语

AI换届,不是Nvidia输了,而是AI的成功太大了。

一家公司,无论多么优秀,都无法承载一整个工业化时代的基础设施价值。资本市场在做的,是重新分配它对”AI基础设施”这个宏大概念的估值——从集中在一家GPU制造商,分散到整条供应链的每一个关键节点。内存、CPU、光纤、电力——这些东西听起来不像”AI”,但它们恰恰是AI得以真正运转的物质基础。

Micron涨750%,Intel涨200%,AMD翻倍,Corning涨超18%——这些数字的背后,是市场对”AI到底需要多少东西才能在现实世界中规模化运行”这个问题,给出了一个越来越完整的回答。但这个回答本身揭示了一个更深层的事实:AI作为技术已经足够成熟,以至于它的价值开始以工业基础设施的方式被定价,而不再只是以”概念股”的方式被炒作。从实验室走向工厂,从工具走向基础设施,它改变的从来不只是哪些股票在涨——它改变的是整个经济体依赖这项技术运转的方式。

这场”AI换届”,远不是结束,而是一轮更大故事的开场。


参考资料

  1. CNBC, “Wall Street sees ‘changing of the guard in AI’ as Intel, AMD shares soar while Nvidia lags,” 2026年5月8日. https://www.cnbc.com/2026/05/08/wall-street-ai-chip-love-moves-from-nvidia-to-intel-amd-and-micron.html
  2. CNBC, “Micron zooms past $700 billion market cap as rally in memory stocks accelerates,” 2026年5月5日. https://www.cnbc.com/2026/05/05/micron-zooms-past-700-billion-market-cap-rally-in-memory-stocks-.html
  3. CNBC, “Micron CEO Sanjay Mehrotra on memory shortage and supply constraints,” 2026年3月24日. https://www.cnbc.com/2026/03/24/micron-mu-stock-q2-earnings-memory-shortage.html
  4. Micron Technology, “Industry-leading 245TB Micron 6600 ION Data Center SSD now shipping,” Micron Investor Relations, 2026年5月. https://investors.micron.com/news-releases/news-release-details/industry-leading-245tb-micron-6600-ion-data-center-ssd-now
  5. Bank of America research, cited in CNBC, “Data center CPU market forecast $27B to $60B by 2028,” 2026年3月. https://www.cnbc.com/2026/03/13/nvidia-gtc-ai-jensen-huang-cpu-gpu.html