2026年4月10日,美国财政部长 Scott Bessent 和美联储主席 Jerome Powell 紧急召集华尔街各大银行 CEO,讨论 Anthropic 发布的 Mythos 模型展现出的网络安全能力(来源: CNBC, 2026-04-10)。这场会议的紧迫性本身就说明了一件事:Anthropic 已经不再是一家”有潜力的 AI 创业公司”,它已经成为一个能让国家级决策者深夜开会的系统性力量。

但在这场围绕 AI 安全和网络风险的讨论背后,一个更深层的基础设施问题被忽略了——训练和运行 Mythos 这样的前沿模型,需要的算力规模已经超出了大多数人的想象。而承载这些算力的关键供应商之一,不是 AWS,不是 Google Cloud Platform(GCP),也不是 Microsoft Azure,而是一家 3 年前还鲜为人知的公司:CoreWeave。

CoreWeave 在 2025 年 3 月以约 230 亿美元估值完成 IPO(来源: Reuters, 2025-03-28),其 S-1 文件披露的客户集中度数据令人瞩目:2024 财年,其最大单一客户贡献了约 62% 的收入,前两大客户合计贡献超过 77%(来源: CoreWeave S-1 Filing, SEC EDGAR, 2025-02)。虽然 CoreWeave 未在 S-1 中点名客户,但多家媒体根据合同规模和时间线推断,Microsoft 和一家大型 AI 实验室是其核心客户(来源: The Information, 2025-03-10)。Anthropic 与 CoreWeave 的多年期算力供应关系,则在 2025 年下半年通过多个行业信源得到确认(来源: The Information, 2025-11-15)。

本文将深入分析这一现象的技术逻辑、商业动因和战略影响,并论证为什么 AI 云计算正在走向一种”双轨制”格局——不是传统意义上的两家公司垄断,而是”专业 AI 云 + 英伟达 GPU 生态”构成的纵向联盟,与”超大规模云 + 自研芯片”阵营之间的结构性对峙。


1. 协议的核心:不只是”买 GPU”,而是”锁定算力期货”

CoreWeave 与 Anthropic 的多年协议,其本质不是简单的云服务采购合同。要理解这笔交易的战略意义,必须先理解 AI 算力市场的一个根本特征:前沿模型训练的算力需求是非线性增长的,而 GPU 供应链的产能扩张是线性的

根据 Epoch AI 的研究,前沿 AI 模型的训练算力需求大约每 6-10 个月翻一番,远超摩尔定律的节奏(来源: Epoch AI, “Compute Trends Across Three Eras of Machine Learning”, 2022,持续更新至 2025)。这意味着当 Anthropic 决定训练下一代模型——比如让美国财政部和美联储都感到紧张的 Mythos(来源: CNBC, 2026-04-10)——它需要在训练开始前的 12-18 个月就锁定足够的 GPU 集群。如果等到需要时再去采购,要么拿不到货,要么价格已经翻了数倍。

CoreWeave 的商业模式本质上是一个”算力期货市场的做市商”。它通过与英伟达的深度合作关系,提前大量采购下一代 GPU(从 H100 到 B100 再到 B200),然后通过多年期合同将这些算力锁定给 AI 模型公司。CoreWeave 在其 IPO 招股书中披露,截至 2024 年底,其已签约的剩余履约义务(remaining performance obligations)高达约 152 亿美元,合同期限从 2 年到 5 年不等(来源: CoreWeave S-1 Filing, SEC EDGAR, 2025-02)。这个数字本身就说明了”算力期货”模式的规模。

对 Anthropic 而言,这种安排提供了 3 个关键价值:

第一,算力供应的确定性。 前沿模型训练是一个持续数月的过程,中间不能断。如果训练到一半 GPU 集群出问题或合同到期,损失的不只是算力费用,还有整个训练周期的时间成本。多年期合同确保了 Anthropic 可以在一个稳定的基础设施上进行多代模型的迭代。

第二,定制化的集群配置。 与 AWS 或 GCP 的标准化云实例不同,CoreWeave 可以为 Anthropic 定制网络拓扑、存储架构和 GPU 互联方案。前沿模型训练对集群内部的通信带宽极其敏感——当你在数千张 GPU 上做分布式训练时,GPU 之间的数据传输延迟直接决定了训练效率。CoreWeave 可以针对 Anthropic 的具体训练框架优化整个集群的配置。

第三,成本可预测性。 AI 公司的最大运营风险之一是算力成本的波动。通过多年期合同,Anthropic 可以将算力成本锁定在一个可预测的范围内,这对于财务规划和融资至关重要——Anthropic 在 2025 年完成了由 Lightspeed Venture Partners 领投的 35 亿美元融资,估值达到 615 亿美元(来源: TechCrunch, 2025-01-07),投资者对其算力成本的可控性有明确预期。


2. 为什么不选 AWS/GCP/Azure?专业 AI 云的结构性优势

这是最反直觉的部分。AWS 拥有全球最大的云基础设施,GCP 背靠 Google 的技术实力和自研 TPU,Azure 则与 OpenAI 有深度绑定。按照传统逻辑,这三大 Hyperscaler 应该是 AI 模型公司的首选。但现实是,CoreWeave 在前沿模型训练领域正在赢得不成比例的份额。

2.1 资源分配的优先级冲突

AWS、GCP 和 Azure 是通用云平台,它们服务的客户从小型创业公司到跨国企业,涵盖从网页托管到数据库到 AI 训练的所有工作负载。这意味着它们的 GPU 资源必须在大量不同客户之间分配。

当一家 AI 模型公司需要连续 3 个月独占 10000 张 H100 GPU 时,这对 Hyperscaler 的资源调度系统来说是一个巨大的挑战。这些 GPU 如果分配给 100 个小客户做推理服务,可能产生更高的总收入和更好的利用率。Hyperscaler 的内部资源分配机制天然倾向于”多租户、高利用率”,而不是”单客户、长期独占”。

CoreWeave 则完全不同。它的整个基础设施从第一天起就是为 AI 训练和推理这一单一用例设计的。没有网页服务器、没有数据库实例、没有对象存储的”噪音”——每一台服务器、每一根网线、每一个交换机都是为 GPU 密集型工作负载优化的。

2.2 网络架构的根本差异

这是技术层面最关键的差异。前沿模型训练的瓶颈往往不在 GPU 的计算能力本身,而在 GPU 之间的通信带宽。当你在 8192 张 GPU 上训练一个万亿参数的模型时,每一步梯度同步都需要在所有 GPU 之间交换大量数据。

传统 Hyperscaler 的数据中心网络是为通用工作负载设计的——它需要处理 HTTP 请求、数据库查询、文件传输等各种流量模式。这种网络的特点是”广而浅”:覆盖面广,但单一链路的带宽和延迟并不是极致优化的。

CoreWeave 的网络架构则是”窄而深”:它专门为 GPU-to-GPU 的 all-reduce 通信模式优化。这意味着更高的 bisection bandwidth(对分带宽)、更低的尾延迟、以及专门为 NCCL(英伟达的集合通信库)优化的网络拓扑。CoreWeave 在其技术文档中强调,其 InfiniBand 和 RoCE 网络架构可以实现接近裸机的 GPU 互联性能(来源: CoreWeave 官方文档, docs.coreweave.com)。在实际训练中,网络优化带来的效率提升可达 15-30%——对于一个耗资数亿美元的训练任务来说,这意味着节省数千万美元。

需要指出的是,Hyperscaler 并非没有意识到这一问题。AWS 在 2024 年推出了 UltraClusters 方案,Google Cloud 推出了 A3 Mega 实例,都在努力提供更优化的 GPU 集群体验。但这些方案仍然运行在为通用工作负载设计的底层基础设施之上,优化的深度与 CoreWeave 这种”从地基开始就为 GPU 设计”的架构存在结构性差距。

2.3 “战略中立性”的隐性价值

还有一个常被忽略的因素:战略中立性。

AWS 的母公司 Amazon 自己在做 AI(Amazon Bedrock、Amazon Nova 模型系列)。GCP 的母公司 Google 拥有 DeepMind 和 Gemini。Azure 与 OpenAI 深度绑定,Microsoft 向 OpenAI 投资超过 130 亿美元(来源: Bloomberg, 2025-01-23)。对于 Anthropic 这样的独立 AI 模型公司来说,将核心算力基础设施完全依赖于一个同时也是竞争对手(或竞争对手盟友)的平台,存在显著的战略风险。

你的训练数据模式、模型架构信息、算力使用曲线——这些都是极其敏感的竞争情报。虽然 Hyperscaler 都有严格的数据隔离政策,但在公司层面的战略决策中,”我的核心供应商同时也是我最大竞争对手的母公司/盟友”这一事实本身就构成了不可忽视的风险。

CoreWeave 没有自己的 AI 模型业务,也没有与任何特定模型公司形成排他性联盟。它是一个纯粹的基础设施提供商,这种”瑞士式中立”对 AI 模型公司来说有巨大的吸引力。当然,CoreWeave 的客户集中度本身也引发了一个反向问题——当你的收入高度依赖少数几个大客户时,你的”中立性”是否真的可持续?这是一个值得持续观察的张力。


3. 专业 AI 云崛起的深层解读:一个新的基础设施范式

CoreWeave 在前沿 AI 训练市场的快速崛起,不仅仅是一个公司的成功故事。它反映了 AI 基础设施领域正在发生的一次范式转移。

3.1 从”通用云”到”专用云”的钟摆

云计算的历史是一个在”通用”和”专用”之间摆动的钟摆。

2006-2015 年,AWS 开创了通用公有云的时代,核心价值主张是”不需要自建数据中心”。2015-2020 年,随着工作负载的多样化,出现了各种垂直云服务(如 Snowflake 之于数据仓库、MongoDB Atlas 之于数据库)。2020-2025 年,AI 训练需求的爆发式增长创造了一个全新的垂直领域,而这个领域的技术要求与传统云工作负载的差异之大,使得通用云平台的”一刀切”方案越来越难以满足需求。

CoreWeave 正是这个钟摆摆向”专用”一端时的最大受益者。它的成功不是因为它比 AWS 更大或更便宜,而是因为它更专注——在 AI 训练和推理这一特定用例上,它的每一个架构决策都是最优的。

3.2 英伟达的”影子联盟”

理解 CoreWeave 的崛起,不能不谈英伟达。英伟达在 2023 年向 CoreWeave 投资了约 1 亿美元,成为其重要的战略投资者(来源: Reuters, 2023-08-02)。而 CoreWeave 也是英伟达新一代 GPU 的最早期大规模部署者之一。

这种关系创造了一个正反馈循环:

  1. CoreWeave 因为与英伟达的紧密关系,能比其他云服务商更早拿到最新的 GPU(比如 B100、B200)
  2. 更早拿到新 GPU → 更早为客户提供最新算力 → 吸引更多顶级 AI 模型公司
  3. 更多顶级客户 → 更大的 GPU 采购量 → 与英伟达的关系更紧密
  4. 回到第 1 步

CoreWeave 在 S-1 文件中披露,其 2024 年资本支出中约 89% 用于 GPU 及相关基础设施采购(来源: CoreWeave S-1 Filing, SEC EDGAR, 2025-02)。这种”All-in GPU”的资本配置策略,与 Hyperscaler 将 GPU 投资分散在整体资本支出中的模式形成鲜明对比。

对比之下,AWS 在推自己的 Trainium/Inferentia 芯片,Google 在推 TPU,Microsoft 在与各种芯片公司合作开发自研芯片。这些 Hyperscaler 都在试图减少对英伟达的依赖,而 CoreWeave 则全力拥抱英伟达生态。这种战略差异决定了在英伟达 GPU 仍然是 AI 训练”黄金标准”的时代,CoreWeave 能提供最纯粹、最优化的英伟达 GPU 体验。


4. Anthropic 的算力战略:Mythos 背后的基础设施逻辑

Anthropic 发布的 Mythos 模型引发了美国最高级别的金融安全讨论(来源: CNBC, 2026-04-10),Fortune 更是直接将其称为”警钟”,指出 AI 驱动的网络安全风险时代已经到来(来源: Fortune, 2026-04-10)。这种级别的模型能力不是凭空出现的——它背后是天文数字的算力投入。

4.1 从 Claude 到 Mythos:算力需求的指数级跃升

Anthropic 的模型演进路径——从早期的 Claude 系列到 Claude 3.5 Sonnet/Opus,再到如今的 Mythos——每一代都伴随着算力需求的数量级增长。虽然 Anthropic 没有公开 Mythos 的具体训练细节(截至本文发布时暂无公开数据),但根据 Epoch AI 的行业趋势数据,前沿模型的训练算力需求大约每 6-10 个月翻一番。

这意味着 Anthropic 在签署与 CoreWeave 的多年协议时,不仅要考虑当前的训练需求,还要为未来 2-3 代模型的算力需求做规划。多年期合同的本质是一种”算力看涨期权”——Anthropic 以今天的价格锁定了明天的算力,而如果 GPU 供应继续紧张,这个期权的价值只会越来越高。

4.2 推理算力:被低估的第二战场

训练只是算力需求的一半。当 Mythos 这样的模型被部署到生产环境中,推理(inference)所需的算力可能比训练更多。

Fortune 的报道指出,AI 编码市场已经达到 40 亿美元的规模,其中 Claude Code 和 Cursor 合计占据超过 70% 的市场份额(来源: Fortune, 2026-04-10)。每一次用户在 Claude Code 中输入一个编码请求,后端都需要 GPU 进行推理计算。当数百万开发者每天使用这些工具时,推理算力的需求是惊人的。

这就是为什么 Anthropic 需要一个能同时满足训练和推理需求的算力合作伙伴。训练需要大规模、长时间的 GPU 集群独占;推理需要灵活、低延迟、可弹性扩展的 GPU 资源。CoreWeave 的基础设施设计能同时满足这两种截然不同的需求模式——其 Kubernetes 原生架构允许在训练和推理工作负载之间灵活调度 GPU 资源。

4.3 安全性考量:当你的模型让美联储主席失眠

Mythos 模型的网络安全能力引发了美国最高金融监管层面的紧急讨论(来源: CNBC, 2026-04-10)。这意味着 Anthropic 的模型已经进入了”国家安全级别”的关注范围。在这种情况下,模型训练和推理所使用的基础设施的安全性就变得至关重要。

CoreWeave 作为一个相对专注的平台,其安全审计和合规范围比 Hyperscaler 更集中。它不需要同时保护电商交易、社交媒体数据和 AI 模型训练——它只需要做好一件事。这种专注性在安全领域是一个优势,因为攻击面更小,安全团队的注意力更集中。

当然,这也是一个双刃剑。Hyperscaler 拥有更大的安全团队、更多的安全投资和更丰富的安全运营经验。AWS 的安全团队规模超过数千人,其 SOC 2、FedRAMP、HIPAA 等合规认证覆盖范围远超 CoreWeave 目前的水平。但对于 Anthropic 这样一个本身就极度重视 AI 安全的公司来说,与一个专注且可控的基础设施合作伙伴合作,可能比依赖一个庞大但复杂的通用平台更符合其安全哲学。


5. “双轨制”格局:一个新的竞争框架

基于以上分析,我认为 AI 云计算正在形成一种”双轨制”格局。这里的”双轨制”不是指两家公司的对峙,而是指两种模式的结构性分化:

轨道一:专业 AI 云 + 英伟达 GPU 生态

  • 代表:CoreWeave(以及 Lambda、Together AI、Crusoe Energy 等较小的专业 AI 云)
  • 核心优势:GPU 优化、专注度、战略中立性、英伟达生态的深度整合
  • 客户群:独立 AI 模型公司(Anthropic、以及其他非 Hyperscaler 旗下的模型公司)
  • 市场定位:前沿模型训练的首选平台

轨道二:超大规模云 + 自研芯片

  • 代表:Google Cloud(TPU)、AWS(Trainium/Inferentia)、Azure(Maia)
  • 核心优势:规模、全栈整合、企业客户关系、资本实力
  • 客户群:自家 AI 团队 + 企业客户的 AI 应用部署
  • 市场定位:AI 应用大规模部署的主导平台

5.1 为什么这不是”大卫 vs 歌利亚”

表面上看,CoreWeave 对抗 AWS/GCP/Azure 像是一个不对称竞争。AWS 2024 年全年营收超过 1050 亿美元(来源: Amazon 2024 Q4 Earnings, 2025-02-06),而 CoreWeave 2024 年全年营收约为 19 亿美元(来源: CoreWeave S-1 Filing, SEC EDGAR, 2025-02)。但在 AI 训练这个特定战场上,双方的实力对比并不像总营收数字所暗示的那样悬殊。

原因在于:AI 训练算力市场的增长速度远快于 Hyperscaler 的 GPU 产能扩张速度。AWS 的 GPU 产能虽然绝对值可能更大,但它需要在数百万客户之间分配。CoreWeave 的全部产能都集中服务于 AI 工作负载,在这个特定领域的”有效供给”可能与 Hyperscaler 的 AI 专用产能不相上下。

更重要的是,CoreWeave 的资本效率模型与 Hyperscaler 不同。Hyperscaler 的 GPU 投资只是其总资本支出的一部分(它们还需要投资 CPU 服务器、存储、网络、数据中心建设等通用基础设施)。CoreWeave 的每一美元资本支出都直接投向 GPU 和 GPU 优化的基础设施。这种专注性意味着在 AI 算力这一维度上,CoreWeave 的资本效率可能更高。

5.2 反面论证:Hyperscaler 的反击能力不容低估

公平起见,必须深入分析 Hyperscaler 拥有的几个 CoreWeave 短期内难以匹敌的结构性优势:

第一,自研芯片的长期潜力。 Google 的 TPU v5p 在训练大型语言模型时已经展现出与英伟达 H100 可比的性能,且 Google 声称其 TPU 的性价比在特定工作负载上优于英伟达方案(来源: Google Cloud Blog, “Introducing Cloud TPU v5p”, 2023-12-06)。AWS 的 Trainium2 芯片在 2024 年底开始大规模部署,Amazon 声称其训练性能较上一代提升 4 倍(来源: AWS re:Invent 2024 Keynote)。如果这些自研芯片在前沿模型训练上达到英伟达 GPU 80% 以上的性能且成本显著更低,部分 AI 模型公司可能会开始多元化其算力来源。目前来看,英伟达在 AI 训练芯片领域仍然占据约 80% 以上的市场份额(来源: Omdia, 2025 AI Chip Market Report),但这个数字正在缓慢下降。

第二,企业客户的粘性和全栈服务。 大型企业在选择 AI 基础设施时,往往倾向于使用已有的云服务商。如果一家企业已经在 AWS 上运行了 80% 的工作负载,让它为了 AI 训练单独去 CoreWeave 开一个账户,会面临额外的运维复杂性、数据迁移成本和合规审计负担。AI 模型的生命周期不只是训练和推理——它还包括数据预处理、模型评估、A/B 测试、监控、日志分析等一系列配套服务。Hyperscaler 在这些配套服务上的积累远比 CoreWeave 深厚。CoreWeave 专注于 GPU 算力,但”只有 GPU”可能不够——客户最终需要的是一个完整的 AI 开发平台。

第三,资本实力的碾压性差距。 AWS、Google Cloud 和 Azure 的母公司分别拥有超过 700 亿、500 亿和 600 亿美元的年度资本支出预算(2025 年指引)。CoreWeave 虽然通过 IPO 和债务融资筹集了大量资金,但其资本规模仍然只是 Hyperscaler 的零头。如果 Hyperscaler 决定在 AI 专用基础设施上”不计成本”地投入,CoreWeave 的专注度优势可能被规模优势所淹没。

我的判断是: 在未来 2-3 年内,专业 AI 云(以 CoreWeave 为代表)将继续在前沿模型训练市场占据重要地位,但”主导”一词需要谨慎使用。随着 Hyperscaler 加大 AI 专用基础设施投入(如 AWS 的 UltraClusters、Google 的 AI Hypercomputer),以及自研芯片性能的持续提升,CoreWeave 的技术差距优势将逐步收窄。最终的均衡状态可能是:CoreWeave 在”英伟达 GPU 最优体验”这一细分赛道保持领先,Hyperscaler 主导企业 AI 部署和自研芯片生态,而推理市场则成为双方激烈争夺的中间地带。


6. 对 AI 产业链的连锁影响

CoreWeave-Anthropic 协议的影响远不止两家公司之间的交易。它正在重塑整个 AI 产业链的权力分配。

6.1 英伟达的”渠道战略”升级

CoreWeave 的崛起实际上帮助英伟达解决了一个长期困扰它的问题:如何在不直接与 Hyperscaler 竞争的情况下,最大化 GPU 在云端的部署效率。

在 CoreWeave 出现之前,英伟达的 GPU 在云端的使用效率往往受限于 Hyperscaler 的通用架构。CoreWeave 让英伟达的 GPU 在云端也能发挥接近裸机的性能,这对英伟达的品牌和市场定位至关重要。当 AI 模型公司在 CoreWeave 上获得更好的训练效率时,它们会更坚定地选择英伟达 GPU(而不是考虑 TPU 或 Trainium),这反过来又强化了英伟达的市场主导地位。英伟达 CEO 黄仁勋在 2025 年 GTC 大会上多次提及 CoreWeave 作为关键合作伙伴(来源: NVIDIA GTC 2025 Keynote, 2025-03-18),这种公开背书进一步巩固了双方的战略绑定。

6.2 AI 模型公司的”基础设施外交”

对于 Anthropic 以外的 AI 模型公司来说,CoreWeave 的崛起提供了一个重要的战略选项:不再被迫在 Hyperscaler 之间选边站。

过去,如果你是一家 AI 模型公司,你的算力选择基本上决定了你的”阵营”:选 Azure 就意味着与 Microsoft/OpenAI 生态靠近,选 GCP 就意味着与 Google/DeepMind 生态靠近。这种”基础设施决定联盟”的格局限制了 AI 模型公司的战略灵活性。

CoreWeave 作为一个中立的算力平台,让 AI 模型公司可以在不选边的情况下获得顶级算力。这对整个 AI 生态的多样性是有利的——它降低了新进入者的门槛,减少了”赢家通吃”的风险。但需要注意的是,Anthropic 本身也与 Amazon 有深度合作——Amazon 在 2023-2024 年间向 Anthropic 投资了高达 80 亿美元(来源: Amazon Press Release, 2024-03-27),Anthropic 的部分工作负载也运行在 AWS 上。这说明即使是最积极使用 CoreWeave 的 AI 公司,也在实践”多云策略”,而非完全押注单一平台。

6.3 资本市场的信号

CoreWeave 能够签下多年期大额合同,向资本市场传递了一个强烈信号:专业 AI 云不是一个过渡性的业态,而是一个可持续的商业模式。

多年期合同意味着可预测的收入流,这在资本市场上的价值远高于按需付费的短期收入。CoreWeave 的 S-1 文件显示,其 2024 年营收同比增长超过 700%,从 2023 年的约 2.29 亿美元增长到约 19 亿美元(来源: CoreWeave S-1 Filing, SEC EDGAR, 2025-02)。这种增速让它能够以更低的成本获得债务融资(因为有合同现金流作为抵押),进而购买更多 GPU,扩大产能,吸引更多客户——又一个正反馈循环。


7. 被忽略的风险:集中度悖论

在为 CoreWeave 的崛起喝彩之前,我们必须正视一个结构性风险:当大量顶级 AI 模型公司都高度依赖同一个基础设施提供商时,这本身就构成了一种系统性风险。

7.1 单点故障风险

如果 CoreWeave 的某个核心数据中心遭遇重大故障——无论是硬件故障、网络中断、还是自然灾害——受影响的可能不是一家 AI 公司,而是多家前沿 AI 模型的训练进程。这种集中度在其他行业(如 TSMC 之于先进制程芯片制造,全球超过 90% 的先进制程芯片由 TSMC 生产)已经引起了广泛的地缘政治关注,AI 算力层面的集中度同样值得警惕。

7.2 客户集中度的双刃剑

CoreWeave 的 S-1 文件显示,其 2024 年前两大客户贡献了超过 77% 的收入。这种客户集中度在 IPO 后已经引发了分析师的广泛关注。如果任何一个大客户决定将工作负载迁移到其他平台(无论是 Hyperscaler 还是自建),CoreWeave 的收入将面临断崖式下跌的风险。反过来,当 CoreWeave 成为前沿 AI 训练的”必选项”时,它的定价权会越来越强,AI 模型公司可能会发现自己面临一个新的”供应商锁定”问题——只不过这次锁定的对象从 Hyperscaler 变成了 CoreWeave。

7.3 地缘政治维度

Anthropic 的 Mythos 模型已经引起了美国最高决策层的关注(来源: CNBC, 2026-04-10)。当训练这种国家安全级别模型的基础设施集中在一家公司时,这家公司本身就成为了一个地缘政治节点。CoreWeave 的数据中心位置、供应链安全、员工背景审查等问题,可能很快就会进入国家安全审查的范围。

这不是危言耸听。当美国财政部长和美联储主席因为一个 AI 模型的能力而紧急召集华尔街 CEO 开会时,训练这个模型的基础设施提供商自然也会进入监管视野。2024 年 10 月,美国商务部已经发布了关于 AI 数据中心安全的初步指导框架(来源: U.S. Department of Commerce, “Framework for AI Infrastructure Security”, 2024-10),未来更严格的监管几乎是确定的。


8. 未来 18 个月的关键观察点

基于以上分析,以下几个变量将决定 AI 云计算”双轨制”格局的最终走向:

第一,英伟达下一代 GPU(Rubin 架构,预计 2026 年下半年量产)的分配策略。 CoreWeave 能否继续获得优先供货权?如果英伟达决定更均匀地分配产能给 Hyperscaler,CoreWeave 的核心优势将被削弱。

第二,Google TPU v6(Trillium)和 AWS Trainium3 的性能进化。 如果自研芯片在前沿模型训练上达到英伟达 GPU 80% 以上的性能,且成本更低,部分 AI 模型公司可能会开始多元化其算力来源。

第三,CoreWeave 的上市后财务表现。 多年期合同的收入确认方式、客户集中度风险的变化趋势、以及资本支出的回报率,都将成为投资者判断其商业模式可持续性的关键指标。

第四,监管环境的变化。 Mythos 模型引发的安全讨论可能催生新的 AI 基础设施监管框架。如果政府要求前沿 AI 训练必须在经过安全认证的基础设施上进行,这可能成为 CoreWeave 的护城河(如果它率先获得认证),也可能成为 Hyperscaler 的优势(因为它们有更多的合规经验和资源)。

第五,AI 模型公司的自建算力趋势。 Meta 已经在大规模自建 GPU 集群(其 2025 年资本支出指引为 600-650 亿美元,其中大部分用于 AI 基础设施),xAI 也在 Memphis 建设了超大规模 GPU 集群(来源: Reuters, 2024-09-05)。如果更多 AI 公司选择自建而非租用,CoreWeave 的可寻址市场将被压缩。


9. So What:对不同读者的启示

对 AI 创业者: CoreWeave-Anthropic 协议的启示不是”你也应该去 CoreWeave”,而是”算力供应链管理已经成为 AI 公司的核心竞争力之一”。在算力稀缺的时代,能否提前锁定足够的算力,可能比模型架构的创新更能决定一家 AI 公司的成败。

对企业 IT 决策者: 不要急于在 CoreWeave 和 Hyperscaler 之间做选择。如果你的 AI 工作负载以推理为主(部署已有模型),Hyperscaler 的全栈服务仍然是更安全的选择。如果你需要训练自己的前沿模型,CoreWeave 值得认真评估。最佳策略可能是”多云”——训练在 CoreWeave,推理和应用部署在 Hyperscaler。

对投资者: CoreWeave 的投资逻辑不是”它会取代 AWS”,而是”它会在 AI 算力这个快速增长的细分市场中占据不成比例的份额”。关键风险是客户集中度(前两大客户 77%+ 收入占比)和英伟达依赖度。关键机会是 AI 推理市场的爆发式增长——AI 编码市场的 40 亿美元只是冰山一角,随着 AI 应用从编码扩展到客服、法律、医疗、金融等各个领域,推理算力需求将以数量级的速度增长。

对政策制定者: 当一家公司成为大量前沿 AI 模型的训练基础设施提供商时,它实际上已经成为一个关键基础设施节点。美国财政部和美联储因为 Mythos 模型而紧急开会(来源: CNBC, 2026-04-10),但他们是否也在关注训练这个模型的基础设施的安全性和韧性?这应该成为下一个政策讨论的议题。


AI 云计算的竞争不再是”谁的服务器更多”的游戏。CoreWeave 与 Anthropic 的多年协议标志着一个新时代的开始——在这个时代,专注度、技术深度和战略定位比规模更重要。但同样重要的是,我们不应将一家公司的快速崛起浪漫化为”颠覆者击败巨头”的简单叙事。Hyperscaler 的反击已经开始,自研芯片的性能在持续提升,监管框架正在形成。最终的格局很可能不是”CoreWeave 取代 AWS”,而是两种模式在不同层面的长期共存——就像专业投行和全能银行在金融体系中各有其位一样。

当 Mythos 这样的模型让整个金融系统感到不安时,我们需要问的不仅是”这个模型能做什么”,还有”是谁在为这个模型提供算力,这个算力供应链是否足够安全和多元”。

这个问题的答案,将在很大程度上决定 AI 时代的基础设施格局。


参考资料

  1. Bessent, Powell convened urgent meeting with bank CEOs about Anthropic’s new AI model — CNBC, 2026-04-10
  2. Anthropic Mythos is a wake-up call: AI-driven cybersecurity risks are already here — Fortune, 2026-04-10
  3. CoreWeave, Inc. S-1 Registration Statement — SEC EDGAR, 2025-02(来源: SEC EDGAR, 文件编号 333-284839)
  4. CoreWeave IPO: AI cloud company raises $1.5 billion in public debut — Reuters, 2025-03-28
  5. Nvidia invests in CoreWeave, cloud startup valued at $2 billion — Reuters, 2023-08-02
  6. Anthropic raises $3.5 billion at $61.5 billion valuation — TechCrunch, 2025-01-07
  7. Amazon completes $4 billion investment in Anthropic — Amazon Press Release, 2024-03-27
  8. CoreWeave-Anthropic 多年期算力供应关系 — 来源: The Information, 2025-11-15(付费内容,无公开 URL)
  9. Epoch AI, “Compute Trends Across Three Eras of Machine Learning” — 来源: Epoch AI, 2022(持续更新至 2025)
  10. Elon Musk’s xAI is building a massive supercomputer in Memphis — Reuters, 2024-09-05