当$1306亿砸向AI却颗粒无收:Gary Marcus称这是”史上最大资本错配”

2026年4月29日下午,华尔街经历了近年来信息密度最高的一个收盘后时段。Amazon、Alphabet、Meta、Microsoft在同一天下午陆续发布Q1财报,四家公司无一例外地超出了分析师预期,也无一例外地将功劳归于AI。

数字是令人目眩的:四家公司在2026年Q1的资本支出合计超过$1306亿,较去年同期大幅增长。其中,Meta宣布将全年AI资本支出指引上调至$640亿到$720亿,数字之大令人咋舌;Microsoft在Azure AI基础设施上的投入继续保持历史高位;Amazon在数据中心扩建和AI芯片采购上砸入数十亿;Alphabet则在TPU训练集群和Google Cloud AI产品线上继续加注。

四家公司的股价,在财报披露后普遍上涨。云业务增长强劲:Google Cloud同比增长63%,Azure增长40%,AWS展示了数十亿美元的AI新签合约。华尔街用真金白银投票:AI支出是对的。

就在这批财报发出后的第二天,纽约大学荣誉教授、AI研究者Gary Marcus在X平台上写下了一句话,被Business Insider、MarketWatch等主流财经媒体广泛转载:

“Amazon、Google、Microsoft和Meta合计,每个月的AI支出超过了整个曼哈顿计划的年度成本,是曼哈顿计划年度成本的12倍以上。没有一家从AI中获得重大利润,没有技术护城河,价格战不可避免。这是史上最大的资本错配。”

讽刺的是,就在这一周的周日,美国著名深夜节目《Last Week Tonight》也专门做了一期节目讨论AI泡沫疑虑。Marcus事后在Substack写道:”我的技术性和经济性警告,终于开始进入主流视野了。”

这条警告值得认真对待。但它是对的吗?或者说,Marcus的”资本错配”断言,本身就是一个对复杂战略押注的过度简化?


数字的重量:$1306亿意味着什么

首先,让我们把这个数字放进历史坐标,感受它的真实重量。

曼哈顿计划(Manhattan Project)是二战期间美国秘密开发核武器的史诗级工程。从1942年到1945年,总耗资约22亿1945年美元,换算成今日购买力约为380亿美元,相当于每年投入约120亿美元——已经是当时美国GDP的接近1%。

而四大科技巨头2026年Q1合计$1306亿,折算成年化是超过$5200亿。这是曼哈顿计划年化成本(按今日购买力估算约$120亿/年)的约43倍。需要说明的是,Marcus在X上的原文说的是”12倍以上”——这一数字很可能是基于不同的曼哈顿计划成本估算基准,或者是单季度与年度的不同比较口径;无论如何,数量级的差距是毋庸置疑的。

但数字之间的差距是次要的,关键在于底层逻辑的对比:

曼哈顿计划的产出是什么? 原子弹。一个改变了二战格局、重塑了地缘政治的真实”武器”。在道德层面,它引发了人类永久性的反思;但在技术有效性层面,它从未受到质疑——它确实能爆炸,它确实在三年内完成,它确实改变了历史。

$5200亿/年的AI资本支出,目前的确定性产出是什么? 更快的云服务响应速度,更好的广告定向算法,更强大的代码补全工具,和持续降低成本但尚未产生革命性新商业模式的AI API服务。

Marcus的核心论点并非说AI没有价值,而是说:从商业回报角度衡量,这笔投入的规模已经远远超过了其可验证的当前价值,进入了一个依赖于未来不确定事件的”期权价值”区间。

要理解这个判断的边界,我们需要拆开来看四家公司的具体情况。

Meta:Zuckerberg将全年AI资本支出指引上调至$640亿-$720亿,这相当于Meta年度营收的大约35-40%全部用于资本支出。这个比例在传统科技公司历史上是罕见的。Meta的论据是:AI已经在广告业务上产生了可量化回报——针对性广告效率的提升直接驱动了Q1超预期的广告收入增长。

Alphabet:Google Cloud增长63%,这是一个令人印象深刻的数字,但需要注意基数效应——这是在相对较小的基数上的增长。Google DeepMind的Gemini系列和TPU基础设施是支撑这一增长的技术底座。

Amazon:AWS在AI相关新签合约上突破数十亿美元,Amazon Bedrock正在成为企业AI模型访问的重要入口。据2026年4月28日的What’s New发布,Amazon Connect进一步扩展为4个独立的Agentic AI解决方案。

Microsoft:Azure增长40%,Copilot在企业端的渗透率持续提升,GitHub Copilot的付费用户数已超过数百万。

单看这四家,AI支出确实有可量化的回报。那么Marcus的批评究竟打中了哪里?


护城河悖论:当所有人都”有”AI

问题的核心,在于技术同质化正在加速

在AI基础设施竞赛中,每一家超级云厂商购买的是同样来源的Nvidia GPU(H100、B200系列),或者自研但互相追赶的AI芯片(Google TPU、Amazon Trainium、微软Azure Maia)。它们调用的是能力日益趋同的大语言模型,提供的是功能逐渐趋同的API服务。

2023年,能接入GPT-4级别模型是稀缺能力,市场愿意为此付出溢价。2024年,Claude、Gemini、Llama的相继成熟,使这种稀缺性开始消退。到2026年,通过Amazon Bedrock、Azure AI Foundry、Google Vertex AI,企业已经可以用几乎相同的API调用来自不同厂商的最先进模型。

这就是Marcus所说的”没有技术护城河”的真实含义。

它引发了一个严峻的经济学后果:当AI能力成为基础设施而非差异化优势时,竞争只能在价格层面展开

这个逻辑链是这样的:

  • 步骤1:四大厂商都疯狂投入AI基础设施,拥有了类似的AI能力
  • 步骤2:AI能力因此快速商品化(commoditize),不再是护城河
  • 步骤3:商品化意味着用户会选择价格更低的供应商,价格战不可避免
  • 步骤4:价格战压缩利润率,但资本支出已经固化为高额的折旧成本
  • 步骤5:固定成本高企、利润率下降——经典的”资本过剩陷阱”

Marcus援引的关键数据是:没有一家公司能清晰地拆分出”AI护城河利润”。Google Cloud的63%增长,多大程度上是AI驱动的,多大程度上是疫情后云迁移的尾声效应?Meta的广告效率提升,是AI创造的新价值,还是对已有数据资产的更好利用?这些问题,即便是内部分析师也难以精确回答。

有一个近期的历史先例可以作为参考:云计算基础设施本身的价格战。

2015年前后,Amazon AWS在云存储和计算价格上率先降价,Google和Microsoft随即跟进,形成了一轮长达数年的”云价格战”。结果是:云服务整体的价格下降了80%以上,但最终三家巨头的云业务规模反而都在扩张——因为价格下降带来了市场规模的大幅扩大,抵消了单价的压缩。

AI基础设施是否会走同样的路?理论上可能。但有一个关键差异:AI基础设施的固定成本(GPU集群的折旧、数据中心的电费、液冷散热设施)比传统云存储高出一个数量级。当AI API价格随着竞争压缩到接近边际成本时,拥有最多固定资产的公司,其利润受到的侵蚀将是最严重的。

这就是Marcus”价格战不可避免”论断背后的具体机制:不是说AI没有市场,而是说在AI能力商品化的过程中,大量已经投入的资本将无法获得合理的折现回报。


支持者的逻辑:为什么CEO们认为超支是必要的

公平起见,必须完整呈现反对Marcus的视角。这不是一边倒的争论。

Zuckerberg的”保险费”论

Meta CEO Mark Zuckerberg在Q1财报电话会上再次强调:”如果我们落后了,那将是一个无法弥补的错误。”他把AI超支的逻辑描述为战略保险费,而不是期望回报的传统投资——错过AI超级智能的窗口所付出的机会成本,比浪费几百亿美元的代价高得多。

这个逻辑有其内在的一致性。AI能力的提升存在阈值效应——算力到了某个规模,模型能力会出现非线性跳跃。GPT-3到GPT-4的跨越,背后是算力投入的数量级提升;Gemini Ultra到Gemini 2.0的飞跃,同样需要基础设施的持续积累。如果算力投入不够,就无法进入下一个能力阈值。先到达下一个阈值的公司,将获得竞争先发优势。

因此,这不是”投入了但没有回报”,而是”必须持续投入才能维持在竞争前沿的资格”。

Alphabet CFO的”Cloud ROI”论

Alphabet CFO Anat Ashkenazi在财报电话会上说得更直接:”我们在Google Cloud的AI基础设施投入,已经开始产生可量化的ROI——Cloud收入增长63%就是证明。”

从这个角度看,AI资本支出已经产生了真实的商业回报——只是这个回报以”云服务基础设施租用收入”的形式出现,而不是以”AI产品护城河”的形式出现。对于投资者而言,云业务的增长是可以在财报中看到、在股价中反映的真实价值创造,而不是一个纸面上的期权。

更重要的是,Alphabet拥有一个竞争对手难以复制的长期优势:从搜索广告、YouTube、Google Maps到Android生态,Alphabet的AI能力天然嵌入在数十亿人每天使用的产品中,这些产品形成的数据飞轮是真正的护城河,而不仅仅是”租用了GPU”的护城河。

企业采购的真实数据

此外,有一个真实发生的趋势不能忽视:企业AI采购正在显著加速。

Amazon Connect扩展为4个独立的Agentic AI解决方案;ServiceNow宣布全产品线AI原生化;Salesforce与18,000名企业客户共创AI产品路线图,其中部分客户每周会面反馈;Amazon Bedrock新增接入OpenAI模型和Codex,企业已可在AWS生态内统一调用多家前沿模型。这些不是”没有人买单”的基础设施,而是正在被企业快速消化的实际能力。

据多家咨询机构报告,2026年企业AI Agent部署率相比2024年显著提升,AI软件支出正在加速增长。

Marcus的反驳会是:企业采购的这些AI服务的总收入,仍然远远不足以覆盖$5200亿/年的年化资本支出。差距不是小数字的差距,而是量级的差距。


华尔街的共谋:为什么市场一直奖励这种支出

更深层的问题是:如果资本错配真的发生了,为什么华尔街没有惩罚它,反而持续奖励它?

四家公司财报后,股价普遍上涨——市场对AI支出的反应是奖励,而不是惩罚。这是否说明市场比Marcus更聪明?

这里存在一个微妙的委托-代理问题

机构投资者(基金经理、分析师)奖励的不是”最优资本配置”,而是”不犯竞争失误”。这创造了一种扭曲的激励结构。

如果一家公司现在削减AI支出,但竞争对手继续加大投入,5年后落后了,那么当初做出减少投入决策的CFO要承担责任——他的决策是可识别的。但如果所有公司都继续加大投入,最终结果是全行业回报不佳,那么没有人特别需要承担个人责任——这是一个集体失误,集体失误无法追责到个人。

这就解释了为什么Meta CFO苏珊·李在财报后的问答环节被质疑AI支出时,给出的是防御性答案:“我们不会因为恐惧而削减必要投入”。这句话的潜台词是:如果我们削减了,后来落后了,这个责任我个人承担不了;如果我们坚持了,最终全行业都没赚到钱,我们只是随大流,没有人承担个人责任。

Marcus在Substack上对此有一个清醒的观察:”整个市场正在进行一场囚徒困境。每一家公司单独决策时都觉得自己必须投入——因为如果竞争对手投入而你没有,你就输了。但如果所有人都投入却都没有产生差异化的商业价值,整个行业最终会面临回报质疑的时刻。”

这种”囚徒困境式超支”在科技史上不乏先例。

2000年代初,电信公司为了不落后于互联网革命,疯狂铺设光纤——结果是全球接近90%的已铺光纤变成了”暗光纤”(dark fiber),未被点亮,运营商的股价在2001-2003年崩溃了70%-90%。但那些光纤,在十年后的YouTube、Netflix和视频流媒体时代,确实被点亮了,承载了当初投资者做梦都没想到的流量规模。

问题是:AI的”YouTube时刻”会在什么时候到来,以什么形式到来?

值得注意的是,这场”囚徒困境”还有一个鲜为人讨论的第二层效应:超支本身正在推动商品化加速

当所有人都拼命建算力基础设施时,GPU产能在扩张,新AI芯片在落地(Amazon Trainium 3、Google TPU v6、微软Maia 2),算力的边际成本正在下降。算力成本下降,意味着AI API的成本在下降,意味着竞争对手越来越容易以低价参与市场。这是一个加速负反馈:越投入越商品化,越商品化越价格战,越价格战越难以覆盖固定成本。

这个动态,与2000年代电信光纤泡沫有着几乎相同的结构性特征。当时,各大电信公司铺设光纤的规模越大,单位带宽成本下降越快,推动了整个市场的价格崩溃——直到需求侧(互联网内容消费)追上了供给侧(光纤容量)。AI的问题在于,没有人能确定当前的”企业AI应用需求”能在多快的速度内赶上$5200亿/年的算力供给扩张。


第三层洞察:这场豪赌真正在赌的是AGI期权

把Marcus的批评与Zuckerberg的反驳放在一起看,会发现他们其实在讨论完全不同的问题,他们的分歧不是判断力的分歧,而是时间框架的分歧。

Marcus讨论的是:当前AI投资能否在传统商业逻辑框架内(5-8年回报周期)获得合理回报?

Zuckerberg讨论的是:如果AGI(通用人工智能)在未来5-15年内真的出现,谁有基础设施来参与那场游戏?

换句话说,$1306亿/季度的资本支出,本质上是购买一张AGI期权的认购费

如果AGI不来,或者来得比预期慢很多(比如30年后),Marcus的判断是正确的——这是史上最大的资本错配。AI基础设施过剩,价格战摧毁利润率,折旧成本高企,股东价值大量蒸发。

如果AGI在2030年前后出现——不管是以”人类级别的通用推理”形式,还是以”可以完成复杂开放性任务的高级Agent系统”形式——Zuckerberg的判断是正确的:没有算力储备、没有模型研发积累的公司,将彻底错过那个时代最重要的技术平台。就像2000年没有去构建服务器基础设施的公司,在2010年无法参与云计算革命,在2015年无法构建大规模数据分析能力。

这张AGI期权的定价是否合理?

这是整个争议的核心问题,也是最难回答的问题。

每个季度$1306亿的认购费,对应的隐含逻辑是:

  1. AGI将在可见的未来出现(比如10年内)
  2. AGI的经济价值将是惊人的(比如替代现有知识工作的10%-50%)
  3. 没有提前布局基础设施的公司,将失去在AGI时代的竞争入场券

这里有一个关键的非对称性值得关注:AGI期权的价值是指数级的,而当前的成本是线性的

如果AGI来了,先进入者的优势可能不是10%的增量,而是整个行业结构的重塑。Google DeepMind的AlphaFold重新定义了蛋白质折叠研究领域——一个AGI级别的系统,可能重新定义的是整个知识经济的底层逻辑,包括医疗、法律、教育、研究、创作,乃至治理。

在这个视角下,$5200亿/年,用来购买一个不确定但可能重塑世界的技术的”优先入场权”,也许并不是”错配”,而是在正确的方向上做了合理的超级对冲。

但Marcus会说:这只在AGI时间线足够短的前提下成立。

如果AGI的时间线是30年,当前的投入节奏完全不合理——企业不能靠透支当期股东回报来对冲30年后的期权。利率成本、竞争格局、政策监管,任何一个因素都可以在30年内重写规则。

而更关键的问题是:我们有没有能力判断AGI的时间线?

Yoshua Bengio、Geoffrey Hinton等AI先驱分别给出了不同的预测范围,从”5年内”到”永远不会”都有权威声音支持。如果连最权威的AI研究者也无法对AGI时间线达成共识,那么基于AGI期权定价的资本支出决策,其理性基础就极为脆弱。


怀疑论者的声音为何开始破圈

2024年,Marcus的AI怀疑论在AI圈子里是边缘声音,在投资圈里几乎不被重视,在媒体圈里也只是偶尔出现的配角叙事。

但2026年5月的情况不同了。

《Last Week Tonight》做了AI泡沫的专题节目;MarketWatch以Marcus的推文为主线做了专题分析;Bloomberg分析师开始在季报评论中加入”AI ROI不确定性”的警示措辞;就连高盛的研究报告也悄悄加入了”AI投资回报时间线的不确定性”章节。

为什么恰恰是现在?有几个时机性因素在共振:

一、OpenAI的增速失速信号。 据知情人士透露,OpenAI的内部增速低于原定计划。当最重要的AI前沿公司——估值超过$8500亿的OpenAI——的实际增速开始令市场失望,整个AI投资叙事的基础都面临质疑。四大云厂商的AI业务增长,在某种意义上依赖于OpenAI是AI需求的持续增长引擎;一旦这个引擎的增速低于预期,整个AI基础设施需求的未来曲线都需要重新校准。

二、AI编码的”质量门槛”争议。 Marcus在同一周还发布了另一篇分析(据garymarcus.substack.com 2026年5月1日),指出”能编译通过测试的代码,与正确、安全、可维护的生产级软件之间,仍有巨大鸿沟”。OpenAI总裁Greg Brockman早前声称”公司80%的代码由AI编写”,Marcus认为这个说法混淆了”能跑”与”能用”的关键区别。这场争论在开发者社区引发了广泛共鸣——真实使用AI辅助编码的工程师普遍反映,高质量代码仍然需要大量人工审核和修正。

三、企业AI落地的”实施摩擦”显现。 尽管企业AI采购数据看起来强劲,但一线实施者开始公开分享更复杂的真实情况:AI Agent的部署需要大量数据清洗和工作流重构,实际投入使用的比例远低于”购买”的比例。Salesforce与18,000名客户的”共创路线图”合作,恰恰说明了企业在AI落地上仍然需要大量手把手指导——这不像是一个成熟商业化的信号,更像是产品仍在大规模灰度测试阶段。

四、市场情绪的微妙拐点。 Q1财报后,四大科技股确实上涨了。但仔细观察财报电话会的Q&A部分,会发现分析师对AI ROI的追问变得更加尖锐。各家CFO在回答”AI支出何时能产生可量化回报”时,给出的答案都变得更加注意措辞——与2023-2024年”提AI必涨、无需解释”的市场氛围相比,这是一个细微但值得关注的变化。

Marcus在Substack中写道:”怀疑论终于开始传播,不是因为我更聪明了,而是因为现实开始说话了。”

第五,全球监管压力的临界点。2026年,欧盟AI Act正式进入执法阶段,美国国内关于AI风险和数据隐私的监管呼声也在加强。监管成本是AI基础设施投资回收的一个隐性风险因素。当一家欧洲企业因为监管合规压力而放弃使用某个美国云厂商的AI服务时,原本预计的需求增长就会打折。监管的不确定性,进一步削弱了基于AGI期权定价的长期回报预测的可靠性。

这五个因素的共振,解释了为什么Marcus的声音在2026年5月开始真正被主流财经世界倾听:不是因为他的论点变得更有力,而是因为越来越多的真实数据开始支持他的担忧。


结语:当泡沫讨论本身成为一个信号

Marcus的”史上最大资本错配”断言,本身可能并不完全准确,也可能过于悲观——AI基础设施投资的真实价值,会在未来5-10年内逐渐清晰,而不是现在。

但他的断言正在从小众声音走向主流媒体,这本身就是一个值得认真对待的信号。

历史上,每一次技术泡沫的转折点,都不是因为某个先知提前准确判断了泡沫的破裂时刻。而是因为:当足够多的主流声音开始认真讨论泡沫的可能性时,市场情绪的临界点已经悄然到来

2000年3月,《巴伦周刊》发表了那篇著名的《Burning Up》报道,分析了一批互联网公司在现金耗尽之前没有商业模式。那篇报道发出后的三周内,纳斯达克开始了持续两年的崩盘。不是因为那篇报道揭示了什么新秘密,而是因为它把一个大家隐隐有感知但不敢公开说的认知,变成了可以公开讨论的主流叙事。

今天的AI,与当年的互联网有一个至关重要的不同:AI技术确实有真实的商业用例。广告优化可以量化,代码辅助可以量化,客服自动化可以量化——这些不像当年某些互联网公司的商业模式那样近乎虚构。

但有一个关键的共同点:当前的投入规模已经超过了现有商业用例能够支撑的合理边界,进入了一个依赖于未来不确定事件(AGI、通用Agent等)的”期权定价区间”。而期权是有时间价值的——时间越长,期权价值越会因不确定性而打折。

Marcus的最后一段警告值得完整引用:

“没有一家从AI获得重大利润,没有技术护城河,价格战不可避免。我的担忧不是AI没用——AI是有用的。我的担忧是:以这种规模和速度进行资本配置,其背后的赌注是一个尚未被技术或商业逻辑充分支撑的未来愿景。如果那个愿景兑现了,这1300亿将是史上最聪明的投资。如果没有,将是史上最昂贵的幻觉。”

对于科技投资者、企业战略决策者,以及正在思考AI转型方向的从业者,这个问题值得认真凝视:

$1306亿,正在赌的究竟是AI,还是AGI?那张期权,定价合理吗?

在Q2财报季到来之前——大概是2026年7月——我们会得到下一组数字。如果那时候Marcus所说的”没有重大利润、没有技术护城河”依然成立,那么怀疑论就不再只是学者的叹息,而将成为影响市场走向的实质性力量。


参考资料

  1. Big Tech’s AI spending is the ‘greatest capital misallocation in history,’ AI researcher says — Business Insider, 2026-04-30
  2. The greatest capital misallocation in history? — Gary Marcus on AI, Substack, 2026-04-30
  3. Big Tech earnings: What separated the winners and losers — Business Insider, 2026-05-01
  4. Apple Q2 earnings: Tim Cook delivers beat, talks rising memory costs — Business Insider, 2026-04-30