Micron 营收翻 3 倍但股价暴跌——HBM 繁荣背后的定价悬崖与半导体行业的"增长陷阱"
2026 年 3 月 27 日,Micron Technology 公布了一份看似完美的财报:季度营收同比增长超过 300%,HBM(High Bandwidth Memory)出货量创下历史纪录,数据中心业务收入占比首次突破 60%。然而,盘后交易中 Micron 股价暴跌超过 5%,市值蒸发近 80 亿美元。花旗银行当天重申买入评级,目标价维持在 150 美元以上;高盛却在同一天发出警告——2027 年 HBM 定价可能面临”结构性下行风险”。
这不是一个简单的”利好出尽”故事。这是半导体行业在 AI 超级周期中正在经历的一种系统性矛盾的缩影:需求越猛,资本开支越大,竞争越激烈,定价权越脆弱。 当所有人都在追逐同一个 HBM 蛋糕时,蛋糕本身可能正在被切得越来越薄。
历史上,半导体行业不止一次出现过这种”增长与利润脱钩”的现象。2017-2018 年的 NAND Flash 超级周期中,Samsung、SK Hynix、Western Digital 和 Micron 的 NAND 出货量在 2 年内增长超过 120%,但由于 3D NAND 产能的集中释放,ASP 在 2018 年下半年暴跌 40%,Micron 股价从 2018 年 5 月的高点 64 美元跌至 2018 年 12 月的 32 美元——腰斩。更早的案例是 2010-2011 年的 DRAM 周期:智能手机爆发带动 DRAM 需求翻倍,但 Samsung、Elpida(后被 Micron 收购)和 SK Hynix 的产能扩张更快,Elpida 在 2012 年 2 月申请破产保护。每一次半导体的”超级需求”故事,最终都演变成了”超级供给”的悲剧——区别只在于时间滞后的长短。
这一次的 HBM 周期会不同吗?也许会,也许不会。但市场在 2026 年 3 月 27 日给出的信号是明确的:它开始为”不会不同”的可能性定价。
1. 数字的表面:Micron 的”完美季报”
先看事实。Micron 2026 财年第 2 季度(截至 2026 年 2 月底)营收约 87 亿美元,同比增长约 302%。这一数字甚至超出了华尔街最乐观的预期约 3%。毛利率从 1 年前的 -1%(亏损状态)跃升至约 37%,DRAM 业务收入占比约 73%,其中 HBM 产品线贡献了 DRAM 收入的约 25%——这意味着 HBM 单季度为 Micron 带来了约 16 亿美元的收入 (来源: CNBC/custommapposter, 2026-03-31)。
从产品维度看,Micron 的 HBM3E 产品已经大规模出货给 NVIDIA,用于 Blackwell 架构的 B200 和 GB200 加速器。Micron 管理层在财报电话会上确认,HBM3E 的 12-high 堆叠产品良率已超过 90%,并且 HBM4 的工程样品已经交付给”关键客户”——几乎可以确认是 NVIDIA 和 AMD。
值得注意的是,Micron 的 HBM 收入占比在过去 4 个季度经历了一个陡峭的上升曲线:2025 财年 Q3 约 8%,Q4 约 14%,2026 财年 Q1 约 20%,Q2 约 25%。这种产品组合的快速转变在半导体行业中极为罕见——通常一个新产品线从 0 到 25% 的收入占比需要 3-5 年,而 Micron 的 HBM 业务仅用了约 18 个月。这既是 AI 需求爆发力的证明,也暗示了一个风险:当一家公司的收入增长过度依赖单一产品线时,该产品线的任何价格波动都会被放大为整体业绩的剧烈震荡。
这些数字放在任何一个传统半导体周期中,都足以让股价飙升 10% 以上。但市场给出了相反的反应。
为什么?
答案不在过去,而在未来。具体来说,在于 Micron 管理层在财报电话会上的一句话(大意):”我们预计 HBM 的平均售价将在 2026 下半年保持稳定,但 2027 年的定价环境将取决于供需动态的演变。” 这句看似中性的表述,在分析师耳中等同于一个信号:Micron 对 2027 年的 HBM 定价没有信心。
对比 1 年前 Micron CEO Sanjay Mehrotra 在 2025 财年 Q2 财报电话会上的措辞——”HBM 的供需将在可预见的未来保持紧张,定价环境非常有利”——2026 年的措辞变化是微妙但致命的。华尔街的分析师们是”语言考古学家”,他们对管理层措辞的细微变化比对财务数字更敏感。当 CEO 从”非常有利”变成”取决于供需动态的演变”时,市场听到的不是中性,而是警告。
2. 花旗 vs 高盛:同一组数据,两种叙事
花旗分析师 Christopher Danely 在 Micron 财报后的研报中维持买入评级,核心逻辑是:HBM 市场的总可寻址市场(TAM)在 2026 年约为 250 亿美元,到 2027 年将增长至 400 亿美元以上。Micron 目前的 HBM 市场份额约 20%(SK Hynix 约 50%,Samsung 约 30%),即使份额不变,仅靠 TAM 扩大就能带来 60% 以上的收入增长。花旗的模型假设 HBM 平均售价(ASP)在 2027 年仅下降 5-8%,认为”量的增长远超价的侵蚀”(来源: CNBC/custommapposter, 2026-03-31)。
花旗的论证有一个隐含的历史类比:2015-2017 年的 3D NAND 转型期。在那个周期中,NAND Flash 从 2D 平面结构转向 3D 堆叠结构,单位成本大幅下降,但由于智能手机存储容量从 16GB 跃升至 64-128GB,总需求的增长远超供给扩张,ASP 在 2016-2017 年反而上涨了 30-50%。花旗认为 HBM 正在经历类似的”技术升级驱动需求跳变”,HBM3E 到 HBM4 的容量翻倍将创造足够的增量需求来吸收新增产能。
高盛的逻辑完全不同。高盛分析师 Toshiya Hari 在同期研报中指出了 3 个结构性风险:
第 1,产能过剩的时间窗口正在逼近。 SK Hynix 在 2025 年下半年启动了位于韩国利川的新 HBM 产线,Samsung 在平泽的 HBM4 专用产线预计 2026 年第 4 季度投产,Micron 自身也在日本广岛和美国爱达荷州扩建 HBM 产能。高盛估算,到 2027 年中期,全球 HBM 月产能(以 wafer start 计)将比 2025 年底增长约 2.5 倍,而需求增长(以 bit 计)约为 2 倍。这意味着供给增速首次超过需求增速,定价权将从卖方转向买方。
高盛的历史类比更加悲观:它援引了 2018 年下半年的 DRAM 周期。当时,Samsung 在平泽工厂的 1x nm DRAM 产线满产,SK Hynix 的 M14 工厂也在同期释放产能,全球 DRAM 月产能在 6 个月内增长了约 20%。但同期智能手机出货量增长放缓至个位数,DRAM ASP 在 2018 年 Q4 单季度暴跌 28%。高盛认为,HBM 市场的集中度更高(3 家供应商 vs DRAM 的 3 家),但这并不意味着定价纪律更好——因为 HBM 的客户集中度同样极高(NVIDIA 占 HBM 采购量的约 60-70%),买方的议价能力足以打破卖方的定价默契。
第 2,NVIDIA 的议价能力正在增强。 随着 Vera Rubin 平台(2026 年 3 月 GTC 发布)的 7 芯片架构对 HBM 规格提出更高要求,NVIDIA 实际上在推动 HBM 供应商之间的竞争加剧。Vera Rubin 平台需要 HBM4 或更高规格的内存,而 SK Hynix、Samsung 和 Micron 都在争夺这一设计导入(design-in)机会。高盛认为,NVIDIA 可能会利用”多供应商策略”来压低采购价格,类似于 Apple 在 NAND Flash 采购中的经典做法 (来源: CNBC/custommapposter, 2026-03-31)。
Apple 的 NAND 采购策略值得详细展开。从 2014 年开始,Apple 系统性地在 Samsung、SK Hynix、Toshiba(现 Kioxia)和 Western Digital 之间轮换 NAND 供应商,每一代 iPhone 都会调整供应商的份额分配。这种”分而治之”的策略使得 Apple 的 NAND 采购价格长期低于市场均价 15-20%。NVIDIA 目前在 HBM 采购中的地位——约占全球 HBM 需求的 60-70%——甚至比 Apple 在 NAND 市场中的地位更强。如果 NVIDIA 采用类似策略,HBM ASP 的下行压力将远超花旗模型的假设。
第 3,HBM4 的技术门槛可能低于预期。 Samsung 在 2026 年 3 月的 GTC 期间展示了面向 Feynman 架构(1nm 级,2028 年)的 HBM4E 原型 (来源: Ongoing Now, 2026-03-16)。这暗示 Samsung 在 HBM4 世代的技术差距正在缩小。如果 3 家供应商在 HBM4 世代的技术能力趋于同质化,定价竞争将不可避免。
这里需要补充一个关键背景:在 HBM3E 世代,SK Hynix 的技术领先优势是显著的——它比 Samsung 早约 6 个月实现量产,比 Micron 早约 9 个月。这种时间差使得 SK Hynix 在 HBM3E 的早期阶段享有接近垄断的定价权。但在 HBM4 世代,Samsung 和 Micron 都在大幅缩短与 SK Hynix 的时间差。如果 3 家供应商在 HBM4 的量产时间上差距缩小到 3 个月以内,早期阶段的定价溢价将大幅收窄。
我的判断:高盛的担忧更接近现实。 但高盛低估了一个变量——Agentic AI 对推理算力(因此对 HBM 带宽)的需求增速。这一点我将在后文展开。
3. HBM 定价的”物理学”:为什么增长可以与利润脱钩
要理解 HBM 定价悬崖的风险,需要先理解 HBM 的成本结构。
HBM 不是普通的 DRAM。它是将多层 DRAM die 通过硅通孔(TSV, Through-Silicon Via)垂直堆叠,再通过微凸块(micro-bump)连接到逻辑芯片的一种先进封装产品。以 HBM3E 12-high 为例:12 层 DRAM die + 1 层逻辑 die,通过超过 10,000 个 TSV 连接,封装在一个约 30mm x 30mm 的基板上。
这种复杂度带来了 3 个成本特征:
-
良率敏感性极高。 12 层堆叠意味着任何一层的缺陷都会导致整个 stack 报废。Micron 声称 HBM3E 良率超过 90%,但这是”已知好 die”(KGD)的良率,不包括封装后测试的损耗。业界估计 HBM3E 的端到端良率(从 wafer 到最终产品)约为 70-75%,这意味着约 25-30% 的硅片面积被浪费。作为对比,普通 DDR5 DRAM 的端到端良率通常在 92-95% 以上。这 20 个百分点的良率差距直接转化为 HBM 的成本溢价。
-
先进封装产能是瓶颈。 HBM 的封装主要依赖台积电的 CoWoS(Chip-on-Wafer-on-Substrate)技术。台积电在 2026 年的 CoWoS 月产能约为 4.5-5 万片晶圆当量,其中约 60% 分配给 NVIDIA。这意味着 HBM 的总出货量在短期内受封装产能而非 DRAM 产能的制约。值得注意的是,台积电 CEO 魏哲家在 2026 年 1 月的法说会上表示,CoWoS 产能将在 2026 年全年保持”供不应求”状态,但他也暗示 2027 年的产能扩张将”显著加速”——这与高盛的供给过剩时间线一致。
-
每 GB 成本远高于普通 DRAM。 HBM3E 的每 GB 成本约为普通 DDR5 的 5-7 倍,但售价是 8-10 倍。这个价差——约 3-5 倍的超额利润——正是高盛担心会被压缩的部分。
为了更直观地理解这个价差的脆弱性,可以参考 LED 行业的历史。2010-2012 年,LED 芯片的毛利率高达 50-60%,因为技术门槛高且产能有限。但随着中国大陆厂商(三安光电、华灿光电)的产能在 2013-2015 年大规模释放,LED 芯片毛利率在 3 年内暴跌至 15-20%。HBM 的技术门槛远高于 LED 芯片,但”超额利润吸引超额投资,超额投资摧毁超额利润”的经济学逻辑是普适的。
现在,让我们做一个简单的数学推演:
- 2026 年 HBM 市场 TAM:约 250 亿美元(花旗估计)
- 2026 年 HBM 平均 ASP:约 25 美元/GB(行业估计)
- 2026 年 HBM 总出货量:约 10 亿 GB(1 EB)
如果 2027 年需求增长 100%(至 2 EB),但 ASP 下降 30%(至 17.5 美元/GB),则 TAM 仅增长至 350 亿美元——增幅 40%,远低于出货量的翻倍增长。如果 Micron 的份额保持 20%,其 HBM 收入从约 50 亿美元增长至约 70 亿美元,增幅 40%。但如果市场预期的是 80% 的收入增长,这就是一个”增长陷阱”——收入在增长,但增速低于预期,估值倍数被压缩。
更令人担忧的是利润端的杠杆效应。HBM 的生产成本中,约 40-45% 是固定成本(设备折旧、洁净室维护),约 55-60% 是变动成本(硅片、化学品、封装材料)。当 ASP 下降 30% 时,如果出货量增长 100%,收入增长 40%,但固定成本不变,变动成本翻倍,毛利润的增幅可能仅为 10-15%。这就是为什么半导体行业的”增长陷阱”如此致命——收入增长的”面子”下面,是利润增长严重不及预期的”里子”。
这正是 Micron 股价暴跌的深层逻辑。市场不是在惩罚 Micron 的过去,而是在重新定价它的未来。
4. NVIDIA 的全栈锁定:HBM 供应商的”囚徒困境”
理解 HBM 定价风险,不能脱离 NVIDIA 的战略布局。2026 年 3 月的 GTC 大会揭示了 NVIDIA 正在构建的一个前所未有的生态系统——不仅仅是芯片,而是从硅片到软件到模型到部署的全栈控制 (来源: Implicator.ai, 2026-03-17)。
Vera Rubin 平台的 7 芯片架构 包含了 GPU(Rubin Ultra)、CPU(Vera,88 核 Olympus 架构)、DPU、NVLink Switch、NVLink 互联芯片、HBM 控制器芯片和安全芯片。这种高度集成的设计意味着 HBM 供应商必须按照 NVIDIA 的规格定制产品——接口协议、时序参数、热设计功耗(TDP)、甚至物理尺寸都由 NVIDIA 定义 (来源: Markets Insider, 2026-03-16)。
这种”规格定义权”的意义怎么强调都不为过。在传统 DRAM 市场中,JEDEC(固态技术协会)负责制定 DDR 标准,所有 DRAM 供应商和客户共同参与标准制定过程,没有任何单一公司能主导规格。但在 HBM 市场中,NVIDIA 事实上已经成为规格的”影子制定者”——虽然 HBM 的基础标准仍由 JEDEC 定义,但 NVIDIA 通过在标准之上叠加自己的定制要求(如特定的信号完整性参数、特定的热管理接口),实质上将 HBM 从”标准化商品”变成了”定制化组件”。当你的产品规格由客户定义时,你的定价权就已经被客户控制了。
更关键的是 NVIDIA 收购 Groq 后的推理芯片布局。Groq 3 LPU 是 NVIDIA 在 2026 年 3 月 GTC 上发布的首款收购后芯片 (来源: CNBC, 2026-03-16),其架构完全不同于传统 GPU——它使用 SRAM 而非 HBM 作为主要内存层级。这意味着 NVIDIA 现在同时拥有两条推理路径:一条依赖 HBM(GPU 路径),一条不依赖 HBM(LPU 路径)。这给了 NVIDIA 一个强大的谈判筹码:如果 HBM 价格过高,NVIDIA 可以将更多推理工作负载转移到 Groq 3 LPU 上。
这与 Intel 在 2000 年代中期对 DRAM 供应商的策略如出一辙。当时 Intel 通过推广 FB-DIMM(Fully Buffered DIMM)技术,试图在 DRAM 和 CPU 之间插入一个由 Intel 控制的缓冲芯片层,从而削弱 DRAM 供应商的差异化能力。虽然 FB-DIMM 最终因功耗问题未能普及,但 Intel 的意图——通过架构创新重新分配价值链利润——与 NVIDIA 今天的 Groq 3 LPU 策略是同构的。
这不是理论推演。NVIDIA 在 GTC 上发布的 Dynamo 1.0 推理操作系统 支持”disaggregated serving”——即将预填充(prefill)和解码(decode)阶段分配到不同的硬件上 (来源: NVIDIA Developer Blog, 2026-03-16)。这意味着 NVIDIA 可以将 HBM 密集的预填充阶段放在 GPU 上,将 HBM 不敏感的解码阶段放在 Groq 3 LPU 上。这种灵活性本质上是在告诉 HBM 供应商:你们不是不可替代的。
再叠加 Kyber 机架(144 GPU 垂直架构)的发布——这种机架级设计允许 NVIDIA 在系统层面优化 HBM 的使用效率,通过更大的共享内存池减少每颗 GPU 所需的 HBM 容量。如果 Kyber 机架能将每颗 GPU 的有效 HBM 需求降低 20-30%,这将直接冲击 HBM 的需求曲线。
Kyber 机架的技术原理值得深入解释。传统的 GPU 服务器中,每颗 GPU 配备固定容量的 HBM(如 B200 配 192GB HBM3E),GPU 之间的内存不能直接共享。Kyber 机架通过 NVLink 6 的超高带宽互联(单链路 1.6 Tbps),实现了 144 颗 GPU 之间的内存池化——任何一颗 GPU 都可以以接近本地 HBM 的延迟访问其他 GPU 的 HBM。这意味着在实际工作负载中,如果某些 GPU 的 HBM 利用率较低,其空闲 HBM 可以被其他 GPU 借用。NVIDIA 声称 Kyber 机架的有效 HBM 利用率可以从传统架构的约 60-70% 提升至 85-90%。如果这一数字属实,它等效于在不增加 HBM 物理容量的情况下,将有效 HBM 容量提升了 25-40%。
对 HBM 供应商来说,这是一个经典的”囚徒困境”:
- 如果 SK Hynix、Samsung 和 Micron 联合维持高价,NVIDIA 会加速 Groq 3 LPU 的部署,减少对 HBM 的依赖。
- 如果任何一家率先降价以获取更多份额,其他两家被迫跟随,整个行业利润被压缩。
- 无论哪种路径,HBM 的超额利润都难以持续。
有人可能会反驳:HBM 供应商只有 3 家,寡头市场的定价纪律通常比较好。这种观点忽略了一个关键事实——DRAM 行业的历史充满了”寡头市场但价格战不断”的案例。2019 年,全球 DRAM 市场同样只有 Samsung、SK Hynix 和 Micron 3 家主要供应商,但 DRAM ASP 在当年全年下降了约 47%。原因很简单:当 3 家公司都有大量固定资产需要摊销时,”降价保份额”比”维价丢份额”在财务上更理性。寡头市场不能保证定价纪律,尤其是在产能过剩的环境中。
5. Agentic AI:被低估的需求变量
然而,高盛的分析可能忽略了一个正在快速膨胀的需求侧变量:Agentic AI 对推理算力的指数级需求。
2026 年 3 月的 GTC 大会上,Jensen Huang 将”Inference Inflection”(推理拐点)定义为 AI 产业的核心叙事。这不是空洞的口号。以下是支撑这一判断的具体证据:
Salesforce Agentforce 达到 800 百万美元 ARR,完成 29,000 笔交易 (来源: Salesforce, 2026-03-16)。这意味着企业级 AI Agent 已经从概念验证进入规模化部署阶段。每一个 Agentforce 实例在运行时都需要持续的推理计算——不是一次性的训练,而是 7x24 小时的实时推理。Salesforce 与 NVIDIA Nemotron 3 Nano 的集成 (来源: Salesforce, 2026-03-16) 意味着这些 Agent 正在运行在 NVIDIA GPU 上,消耗 HBM 带宽。
为了量化 Agentic AI 的推理需求,我们可以做一个粗略估算。假设一个典型的企业 AI Agent(如 Agentforce 的客服 Agent)每天处理 10,000 次交互,每次交互平均消耗 500 个推理 token(包括输入和输出),使用一个 70B 参数的模型。那么每天的推理 token 总量约为 500 万。按照当前的 GPU 推理效率(约 3,000 tokens/秒/GPU),一个 Agent 需要约 0.02 颗 GPU 的持续算力。如果 Salesforce 的 29,000 笔交易平均每笔部署 5 个 Agent,那么 Agentforce 生态系统需要约 2,900 颗 GPU 的持续推理算力。这听起来不多,但 Agentforce 只是 Agentic AI 生态系统的冰山一角。如果全球企业在 2027 年部署 100 万个 AI Agent(这并不是一个激进的假设,考虑到全球有超过 3 亿家企业),仅 Agent 推理就需要约 2 万颗 GPU 的持续算力——每颗 GPU 配备 192GB HBM,总 HBM 需求约 3.8 PB。
NVIDIA 发布的 Nemotron 3 Super 将 Agent 推理吞吐量提升了 5 倍 (来源: NVIDIA Blog, 2026-03-11)。这听起来像是效率提升会减少 HBM 需求,但实际效果恰恰相反——当推理成本降低 5 倍时,企业会部署 10 倍甚至 50 倍的 Agent。这是 Jevons 悖论在 AI 领域的经典体现:效率提升不会减少资源消耗,反而会通过降低边际成本刺激更大的总消耗。
Jevons 悖论的历史验证极为充分。1865 年,William Stanley Jevons 在《煤炭问题》中指出,蒸汽机效率的提升不但没有减少英国的煤炭消耗,反而通过降低能源成本刺激了更多的工业应用,导致煤炭总消耗量翻了数倍。同样的逻辑在 2000 年代的互联网带宽中重演——光纤技术将每 Mbps 的成本降低了 1000 倍,但全球互联网流量增长了 100,000 倍。在 AI 推理领域,Nemotron 3 Super 的 5 倍效率提升可能只是”降低边际成本→刺激更多部署→总需求反而增长”这一循环的开始。
NemoClaw + OpenClaw 平台的生态扩张 进一步放大了这一效应。Adobe、Atlassian、SAP、Siemens、CrowdStrike 等 15 家以上企业平台接入 OpenClaw (来源: NVIDIA Newsroom, 2026-03-17)。Jensen Huang 在 GTC 上说”每家公司都需要 OpenClaw 战略”——如果这一愿景哪怕实现 10%,企业推理需求将在 2027-2028 年爆发式增长。
Palantir 的 AI OS Reference Architecture 与 NVIDIA 合作,面向主权 AI 部署 (来源: Network World, 2026-03-16)。主权 AI 意味着每个国家都需要自己的推理基础设施——这是一个此前不存在的、完全增量的 HBM 需求来源。截至 2026 年 3 月,已有超过 30 个国家宣布了主权 AI 战略,包括沙特阿拉伯(投资 400 亿美元)、阿联酋(投资 100 亿美元)、新加坡、日本、法国和印度。如果每个主权 AI 项目平均部署 10,000 颗 GPU,仅主权 AI 就需要 30 万颗 GPU——约占 2027 年全球 GPU 出货量的 5-8%。
AWS 的 540 亿美元债券融资 用于 AI/云基础设施建设,与 NVIDIA 部署超过 100 万颗 GPU。这些 GPU 中的每一颗都需要 HBM。仅 AWS 一家的 GPU 部署规模就可能消耗 2027 年全球 HBM 产量的 15-20%。
让我重新计算需求侧:
- 训练需求增长:约 50-70%/年(大模型参数量增长放缓,但多模态和长上下文训练增加)
- 推理需求增长:约 200-400%/年(Agentic AI 部署指数级扩张)
- 总 HBM 需求增长:约 150-250%/年
如果推理需求的增长速度足够快,它可能完全抵消甚至超越供给侧的产能扩张。这是高盛模型中可能遗漏的关键变量。
但这里必须加入一个反面论证:推理需求的增长是否真的会如此之快?怀疑者可能指出,2024-2025 年的企业 AI 采用率远低于预期——Gartner 在 2025 年的调查显示,只有约 12% 的企业将 AI 项目从试点推进到了生产部署。如果企业 AI 的”落地鸿沟”持续存在,Agentic AI 的推理需求可能不会如期爆发。我的回应是:Salesforce Agentforce 的 800 百万美元 ARR 和 29,000 笔交易是”落地鸿沟正在被跨越”的硬证据。但这一趋势能否在 2027-2028 年加速到足以抵消 HBM 供给过剩,仍然是一个开放性问题。
6. 定价悬崖的真实形态:不是断崖,是斜坡
综合供需两侧的分析,我认为 HBM 定价的未来既不是花旗的乐观情景(ASP 仅降 5-8%),也不是高盛隐含的悲观情景(ASP 降 30%+)。真实的路径更可能是一个”结构性斜坡”——ASP 每年下降 12-18%,但出货量增长 80-120%,总收入继续增长但增速放缓。
这个判断基于 3 个结构性因素:
第 1,HBM4 的技术溢价将部分抵消价格下行。 HBM4 相比 HBM3E 的带宽提升约 50-80%(从约 1.2 TB/s 到约 2 TB/s),容量提升约 100%(从 36 GB 到 72 GB per stack)。更高的性能规格意味着更高的 ASP 基线。即使”每 GB”价格下降,”每 stack”价格可能持平甚至上升。Samsung 在 GTC 上展示的 HBM4E 原型 (来源: Ongoing Now, 2026-03-16) 暗示 HBM4 世代的技术竞争将集中在性能而非价格上——至少在早期阶段。
这种”技术升级抵消价格下行”的模式在 GPU 市场中已经被 NVIDIA 验证过。从 A100 到 H100 到 B200,NVIDIA 每一代 GPU 的”每 FLOP”价格都在下降,但由于每一代的 FLOP 总量大幅增加,”每颗 GPU”的价格反而从约 10,000 美元上升到约 30,000-40,000 美元。HBM 可能遵循类似的路径:每 GB 价格下降,但每 stack 价格上升。
第 2,封装产能仍然是硬约束。 台积电的 CoWoS 产能扩张速度受限于先进封装设备(特别是 hybrid bonding 设备)的交付周期。即使 DRAM 产能过剩,如果封装产能不足,HBM 的实际出货量仍然受限,价格不会自由落体。
第 3,NVIDIA 不会希望 HBM 价格崩溃。 这听起来反直觉,但逻辑很清楚:如果 HBM 价格崩溃导致 Micron 或 Samsung 的 HBM 业务亏损,它们可能削减 HBM 产能投资,转而生产利润更高的普通 DRAM。这将导致 HBM 供给短缺,反过来制约 NVIDIA 的 GPU 出货。NVIDIA 需要的是”可控的价格下行”——足以降低系统成本吸引更多客户,但不至于摧毁供应商的投资意愿。这就是为什么 NVIDIA 维持”多供应商策略”而不是”压价策略”——它需要 3 家健康的 HBM 供应商来保障供应安全。
这种”买方维护供应商健康”的策略在汽车行业中有成熟的先例。Toyota 的供应链管理哲学——”不要把供应商压到亏损,因为亏损的供应商会偷工减料或者退出市场”——已经被证明是长期最优的采购策略。NVIDIA 在 HBM 采购中大概率会遵循类似的逻辑。
7. Dell 裁员 11,000 人:AI 资本开支的”挤出效应”
Micron 的故事不是孤立的。在 GTC 2026 同期,Dell Technologies 宣布裁减约 11,000 名员工,占其全球员工总数的约 10% (来源: Capacity, 2026-03-16)。Dell 的官方说法是”资源向 AI 基础设施倾斜”,但实际含义更加直白:传统 IT 业务正在被 AI 资本开支挤出。
Dell 是 NVIDIA Vera CPU 的首批合作伙伴之一 (来源: Markets Insider, 2026-03-16),其 AI 服务器业务在 2026 财年预计增长超过 100%。但 AI 服务器的利润率(约 8-12%)远低于传统企业服务器(约 15-20%),因为 AI 服务器的 BOM(物料清单)中,GPU 和 HBM 占比超过 60%——这些高价值组件的利润归 NVIDIA 和内存供应商,Dell 只是组装商。
这种”收入增长但利润率下降”的困境在科技行业中并不新鲜。2010-2015 年,PC 行业经历了类似的转变:PC 的平均售价在 5 年内下降了约 20%,但 BOM 中 Intel CPU 和 Windows 许可证的成本占比从约 25% 上升至约 35%。HP 和 Dell 的 PC 业务利润率从约 5-6% 压缩至 2-3%,迫使两家公司大规模裁员并向企业服务转型。今天的 AI 服务器市场正在重演这一模式,只是”Intel + Microsoft”的角色被”NVIDIA + HBM 供应商”替代了。
这揭示了 AI 供应链中的一个残酷现实:越靠近硅片的公司获取越多的价值,越靠近系统集成的公司越接近于”搬运工”。 Dell 裁员 11,000 人的本质是:它需要用更少的人做更多的 AI 服务器业务,因为每台服务器的利润不够支撑传统的人力密度。
但这里有一个反直觉的推论:如果 Dell 这样的系统集成商利润率持续被压缩,它们可能会减少 AI 服务器的采购量,转而推广利润率更高的替代方案——比如基于 AMD MI400 或 Intel Gaudi 4 的服务器。这种”渠道层面的反弹”可能在 2027-2028 年成为 NVIDIA 市场份额的一个潜在威胁。
这与 Micron 的困境形成了一个有趣的对照:Micron 处于”硅片层”,理论上应该获取更多价值,但 NVIDIA 的全栈控制力正在将价值从”硅片层”向”平台层”转移。在 Jensen Huang 的”5 层蛋糕”模型中 (来源: NVIDIA Blog, 2026-03-10)——硬件、系统软件、模型、应用、部署——NVIDIA 正在控制从第 1 层到第 4 层的所有环节,而 HBM 供应商只是第 1 层的一个子组件。
8. $1T 芯片市场预测:谁的 1 万亿?
Jensen Huang 在 GTC 2026 上预测全球芯片市场将在 2030 年达到 1 万亿美元 (来源: The Neuron, 2026-03-17)。这个数字比当前市场规模(约 6,000 亿美元)增长约 67%。但关键问题是:这 1 万亿美元的增量中,有多少会流向 HBM 供应商?
按照当前的价值链分配比例:
- GPU/加速器(NVIDIA、AMD、Intel、Groq):约 35-40%
- 内存(HBM + DDR + NAND):约 20-25%
- 先进封装(台积电、日月光):约 10-12%
- 系统/服务器(Dell、HPE、Supermicro):约 15-18%
- 网络(Broadcom、Arista、Mellanox/NVIDIA):约 8-10%
- 其他(电源、散热、PCB):约 5-8%
如果 2030 年芯片市场达到 1 万亿美元,内存的份额约为 2,000-2,500 亿美元。其中 HBM 可能占内存总收入的 30-40%,即 600-1,000 亿美元。Micron 如果能维持 20-25% 的 HBM 市场份额,其 HBM 收入将达到 120-250 亿美元——这是一个巨大的增长空间。
但这里有一个隐含假设:HBM 在内存中的占比能从当前的约 15% 提升到 30-40%。 这取决于两个条件:
- AI 推理需求的增长速度是否足以支撑 HBM 的持续扩张(我认为是的,基于 Agentic AI 的论证)。
- HBM 的替代技术(如 CXL-attached memory、processing-in-memory、NVIDIA Groq 3 LPU 的 SRAM 路径)是否会在 2028-2030 年成熟到足以分流 HBM 需求(这是一个真实的风险)。
关于 CXL(Compute Express Link)内存的威胁,需要做更详细的分析。CXL 3.0 标准(2023 年发布)支持内存池化和共享,理论上可以在不使用 HBM 的情况下为 GPU 提供大容量、高带宽的外部内存。Samsung 和 SK Hynix 都在开发 CXL-attached DRAM 模块,单模块容量可达 256GB,远超 HBM 单 stack 的 36-72GB。但 CXL 内存的带宽(约 64 GB/s per link)远低于 HBM(约 1.2-2 TB/s),因此它更适合作为 HBM 的”容量补充”而非”带宽替代”。CXL 内存不会杀死 HBM,但它可能限制 HBM 的容量增长需求——如果 CXL 能提供足够的”冷数据”存储,GPU 对 HBM 容量的需求增长可能放缓,而对 HBM 带宽的需求则继续增长。
我的判断:HBM 市场在 2027-2028 年将继续高速增长(60-80%/年),但从 2029 年开始,CXL memory 和 PIM(processing-in-memory)技术将开始分流约 10-15% 的 HBM 需求。HBM 的黄金窗口是未来 2-3 年。
9. 大多数人没看到的:Micron 的真正风险不是定价,是技术路线
市场和分析师都在讨论 HBM 定价,但我认为 Micron 面临的更深层风险是技术路线的不确定性。
HBM4 世代将引入一个重大变化:基础逻辑 die 将从 DRAM 供应商自制转向由客户(即 NVIDIA)定制。 在 HBM3E 时代,基础逻辑 die 由 SK Hynix/Samsung/Micron 自行设计和制造。但 HBM4 的规格允许客户提供自定义的逻辑 die,DRAM 供应商只负责堆叠 DRAM die。
这意味着什么?NVIDIA 可以设计自己的 HBM4 逻辑 die,将更多的内存控制功能集成到逻辑层,从而减少对 DRAM 供应商的技术依赖。 如果 NVIDIA 控制了逻辑 die 的设计,HBM 供应商将进一步”商品化”——它们只提供 DRAM die 堆叠服务,而不再提供差异化的逻辑设计。
这种”客户控制关键组件设计”的模式在半导体行业中有一个著名的先例:Apple 自研 A 系列和 M 系列芯片。在 Apple 自研芯片之前,iPhone 使用 Samsung 设计的 Exynos 处理器,Samsung 同时是设计者和制造者,拥有显著的议价能力。但当 Apple 在 2010 年推出自研 A4 芯片后,Samsung 逐渐被降格为”纯代工厂”——它只负责制造 Apple 设计的芯片,利润率从约 40-50%(自研芯片)暴跌至约 15-20%(代工)。如果 NVIDIA 在 HBM4 世代控制了逻辑 die 设计,HBM 供应商可能经历类似的”从设计制造一体化到纯制造”的降级。
这与 NVIDIA 在 GTC 上展示的 Feynman 1nm 架构预览 (来源: Ongoing Now, 2026-03-16) 和 40 亿美元光子学投资(Coherent、Lumentum)形成了一个完整的图景:NVIDIA 正在将内存子系统的控制权从 DRAM 供应商手中夺走,就像它曾经将互联网络的控制权从 InfiniBand 供应商手中夺走一样(通过收购 Mellanox)。
更进一步,NVIDIA 的 40 亿美元光子学投资暗示了一个更长期的威胁:光互联可能在 2029-2030 年部分替代 HBM 的功能。 如果芯片间的光互联带宽能达到 HBM 级别(>1 TB/s),GPU 可以直接通过光互联访问远端的 DRAM 池,而无需将 DRAM die 物理堆叠在 GPU 旁边。这将从根本上颠覆 HBM 的存在意义。虽然这一场景在 2027-2028 年的时间框架内不太可能实现,但它为 HBM 的长期价值设定了一个”天花板”。
对 Micron 来说,这意味着它需要在 HBM4 世代找到新的差异化点——可能是更高的良率、更低的功耗、更好的热管理,或者更快的量产速度。但这些差异化点都是”操作层面”的,而非”架构层面”的。当你的差异化只在操作层面时,你的定价权就只能是”成本加成”而非”价值定价”。
这里有一个第三层洞察,大多数分析师没有看到:HBM 供应商面临的不仅仅是”定价下行”或”技术商品化”的风险,而是一个更根本的”价值链位置重新定义”的风险。 在 HBM3E 时代,HBM 供应商是”关键组件供应商”——它们提供差异化的技术产品,拥有一定的定价权。但在 HBM4 及之后的世代,它们可能被重新定义为”合同制造商”——按照客户(NVIDIA)的设计进行制造和堆叠,利润率向代工模式靠拢。这不是一个渐进的变化,而是一个质变——从”卖产品”到”卖服务”的质变。 如果这一转变发生,Micron 的 HBM 业务毛利率可能从当前的约 40-45% 下降到 2029-2030 年的 20-25%,即使收入仍在增长。
10. 对投资者意味着什么:半导体行业的”增长陷阱”
回到 Micron 股价暴跌的核心问题。这不仅仅是 Micron 的问题——它反映了整个 AI 半导体供应链正在经历的一种系统性张力:
增长陷阱的定义:收入在高速增长,但利润增速低于收入增速,且市场预期的增速高于实际增速,导致估值倍数持续压缩。
这一概念在投资领域有一个经典的理论框架——”PEG 陷阱”(Price/Earnings-to-Growth Trap)。当一只股票的 PEG ratio 看似合理(比如 1.0-1.2),但其增长率正在减速时,投资者会发现自己买入了一个”看似便宜但实际昂贵”的标的。因为市盈率的分母(EPS)增长在放缓,即使市盈率倍数不变,股价也会因 EPS 预期下调而下跌。
Micron 的情况完美符合这一定义:
- 收入增长 302%(超预期)
- 毛利率 37%(低于市场预期的 39-40%)
- 管理层对 2027 年定价的模糊表态(暗示增速将放缓)
- 股价暴跌 5%+(市场重新定价未来增速)
这种模式可能在 2026-2027 年反复出现在 AI 半导体供应链的各个环节:
- 台积电:先进制程产能利用率接近 100%,但 CoWoS 封装的利润率低于逻辑芯片制造,产品组合的变化可能压缩整体毛利率。台积电 2025 年的毛利率约为 57-59%,但如果 CoWoS 收入占比从 2025 年的约 8% 上升到 2027 年的约 15%,整体毛利率可能被稀释 1-2 个百分点。
- SK Hynix:HBM 市场份额最大,但也最容易受到定价下行的冲击。如果 ASP 下降 15%,SK Hynix 的 HBM 利润可能下降 25-30%(因为固定成本占比高)。SK Hynix 在 2025 年的资本开支约为 120 亿美元,其中约 50% 用于 HBM 相关产能——这些投资的回报率高度依赖 HBM ASP 的走势。
- Broadcom:定制 AI 芯片(XPU)业务增长迅猛,但每个客户的定制化需求不同,规模效应有限。Broadcom 为 Google(TPU)、Meta(MTIA)和 ByteDance 设计的定制芯片在架构上差异显著,无法像 NVIDIA 的通用 GPU 那样实现大规模量产。
- 甚至 NVIDIA 自身:如果推理效率的提升(Dynamo 1.0、Groq 3 LPU)速度超过推理需求的增长,GPU 的”每推理 token”价格将下降,NVIDIA 需要靠”量”而非”价”来维持增长。
唯一可能逃脱增长陷阱的公司是那些能够控制”平台层”而非”组件层”的公司。 在 Jensen Huang 的”5 层蛋糕”模型中,NVIDIA 通过控制从硬件(Vera Rubin)到系统软件(CUDA、Dynamo)到模型(Nemotron)到应用平台(NemoClaw/OpenClaw)的全栈,正在将自己从”芯片公司”转变为”AI 基础设施平台公司”。这就是为什么 NVIDIA 的市盈率是 Micron 的 3 倍——市场在为”平台溢价”付费。
这里值得引入一个更宏观的框架来理解”组件层 vs 平台层”的价值差异。在过去 40 年的科技产业史中,”平台公司”的长期回报率始终远超”组件公司”:Microsoft(操作系统平台)vs Intel(CPU 组件)、Apple(iOS 平台)vs Qualcomm(基带芯片组件)、Google(搜索平台)vs 各种广告技术组件公司。平台公司之所以能获取更多价值,是因为它们控制了”需求的入口”——客户首先选择平台,然后平台决定使用哪些组件。 NVIDIA 通过 CUDA 生态系统和 Dynamo 推理操作系统,正在将自己确立为 AI 计算的”需求入口”。HBM 供应商——无论是 SK Hynix、Samsung 还是 Micron——都是被平台”选择”的组件,而非”选择”平台的决策者。
11. So What:3 个可行动的判断
第 1,Micron 在当前价位可能是一个”价值陷阱”而非”价值机会”。 股价暴跌 5% 后,Micron 的前瞻市盈率约为 12-14 倍,看似便宜。但如果 2027 年 HBM ASP 下降 15-18%,Micron 的 EPS 增速可能从 2026 年的 200%+ 骤降至 2027 年的 30-40%,市盈率的”便宜”是假象。在 HBM4 的技术路线和定价环境明朗之前(可能要到 2026 年第 4 季度),Micron 的风险/回报比不够吸引人。
对于持有 Micron 多头头寸的投资者,一个可能的对冲策略是:买入 2027 年 1 月到期的 Micron 看跌期权(行权价设在当前价格的 85-90%),同时卖出等量的看涨期权(行权价设在当前价格的 115-120%)。这种”collar”策略可以在保持上行参与度的同时,限制 HBM 定价下行带来的下行风险。
**第 2,真正的投资机会在”推理基础设施”而非”内存