2026年4月初,AWS CEO Matt Garman 在接受 TechCrunch 采访时被问到一个看起来很尴尬的问题:AWS 已经向 Anthropic 投入了数十亿美元,现在又宣布与 OpenAI 展开深度合作——这两家公司是直接竞争对手,AWS 怎么解释这种「两面下注」的行为?

Garman 的回答出人意料地直接:这根本不是利益冲突,而是战略必然。

这个回答值得深究。因为它揭示的不仅仅是 AWS 的投资逻辑,而是整个云计算行业正在经历的一次深层结构性重组——AI 基础设施的竞争重心,正在从「谁拥有最好的模型」转移到「谁能成为最好的模型调度层」。

要真正理解这个转变的含义,需要从多个层次拆解:表面发生了什么、为什么这件事在结构上重要、大多数分析遗漏了什么深层逻辑,以及这对未来5年的产业格局意味着什么。


第一层:发生了什么

AWS 的双押局面

要理解 AWS 当前的处境,需要先还原事实。

AWS 是 Anthropic 的重要战略合作伙伴和投资方,双方的合作协议涉及 Anthropic 使用 AWS 云基础设施及 Amazon 定制芯片 Trainium。Amazon 对 Anthropic 的投资经历了多个阶段:2023年9月首轮投资12.5亿美元,2024年3月追加27.5亿美元完成首批40亿美元承诺(来源: The Verge, 2024-03-27),此后在2024年11月再度追加40亿美元,使总投资承诺达到约80亿美元。(来源: The New York Times, 2024-11-22)这使 Amazon 成为 Anthropic 有史以来最大的单一战略投资方。

与此同时,OpenAI 于2026年3月宣布与 AWS 及 Databricks 联合构建企业级 AI 基础设施,将其「下一阶段企业 AI」战略落地于 AWS 的云平台之上。(来源: OpenAI 官方博客, 2026-03-25)

这意味着 AWS 同时深度绑定了当前 AI 模型市场的两个头部玩家:Anthropic(Claude 系列)和 OpenAI(GPT 系列)。在外部观察者看来,这像是在同一场赌局里同时押注两匹赛马——而且这两匹马还在争同一条赛道。

但这个类比本身就值得质疑。赛马的逻辑是零和的:一匹马赢,另一匹就输。而 AWS 的逻辑是非零和的:两匹马都跑,AWS 都能收取「赛道使用费」。Matt Garman 对此的解释是:AWS 的核心利益不在于哪匹马赢,而在于赛道本身。(来源: TechCrunch, 2026-04-08)

值得注意的是,这种双押在 AWS 内部并非没有争议。据知情人士透露,Anthropic 团队对 OpenAI 加入 AWS 生态系统的消息最初反应复杂——毕竟 Anthropic 此前享有的「AWS 战略 AI 合作伙伴」定位,随着 OpenAI 的加入而变得不那么独特。然而从已公开的声明来看,双方都选择了将这种竞争框架为「互补」而非「对立」。这本身就是一个值得观察的信号:在 AWS 这个平台面前,模型供应商的话语权是有限的。

OpenAI 的「企业 AI 下一阶段」

OpenAI 在其官方博客中详细描述了与 AWS 和 Databricks 的合作框架。这一战略的核心是构建所谓的「Stateful Runtime」——一种有状态的 AI 运行时环境,让企业客户能够在 AWS 的基础设施上运行 OpenAI 的模型,同时保持数据主权和合规性。(来源: OpenAI 官方博客, 2026-03-25)

这个技术选择本身就很有意思。OpenAI 选择与 AWS 合作而不是单纯依赖 Azure(微软的云平台),这打破了外界对「OpenAI = Microsoft 生态」的简单认知。企业客户开始在多云环境中部署 OpenAI 的模型,这对 AWS 来说是一个重要的流量入口。

从规模上看,这一合作的市场意义不可低估。AWS 在其2025年年报中披露,其活跃企业客户数超过100万,财富500强企业中超过90%使用 AWS 服务。(来源: Amazon 2025 Annual Report, “AWS Segment Overview” 章节)OpenAI 通过与 AWS 合作,一次性获得了接触这个庞大企业客户群的渠道——而这恰恰是 OpenAI 此前在企业市场渗透中最困难的一关。

历史类比:这不是第一次「双押」引发争议

云厂商同时支持竞争性产品,其实有先例可循。

2012年前后,AWS 开始同时提供 MySQL 和 PostgreSQL 的托管服务(Amazon RDS),尽管这两个数据库在功能上有大量重叠,且各自背后有不同的商业公司支持。当时也有人质疑:AWS 是否应该选边站?事后来看,AWS 的「数据库中立」策略是正确的——它让 AWS 成为了所有数据库用户的首选云平台,而不是某一个数据库阵营的专属基础设施。

更早的类比来自英特尔。在1990年代,英特尔同时向微软的 Windows 和 IBM 的 OS/2 提供处理器,尽管这两个操作系统是直接竞争对手。英特尔的逻辑是:无论哪个操作系统赢,都需要英特尔的芯片。这一策略让英特尔在操作系统战争中保持了超然地位,并在 Windows 最终胜出后获得了最大的收益。AWS 的双押逻辑,与英特尔的历史选择有着惊人的相似性。


第二层:为什么重要

模型正在变成基础设施

理解 AWS 双押逻辑的关键,在于理解「模型即基础设施」这一范式转变。

在互联网时代,数据库是基础设施——没有人会因为 AWS 同时提供 MySQL、PostgreSQL 和 DynamoDB 而感到困惑,因为这些都是数据库,而 AWS 的价值在于提供数据库服务层。今天,大语言模型正在经历同样的「基础设施化」过程。

当企业客户选择在 AWS 上部署 AI 应用时,他们面临的核心问题不是「OpenAI 还是 Anthropic 更好」,而是「我的这个具体任务,在这个具体时刻,应该路由到哪个模型」。代码生成可能 Claude 更擅长,客服场景可能 GPT 系列更稳定,成本敏感的批量任务可能需要路由到更小的开源模型。

这种任务-模型的匹配逻辑,在实际企业部署中已经有了量化数据支撑。根据 Andreessen Horowitz 2025年发布的企业 AI 调研报告,超过60%的大型企业在生产环境中同时使用2个以上的 AI 模型供应商,而这一比例在2023年仅为18%。(来源: a16z, “Enterprise AI in the Real World” 报告, 2025年;该报告通过 a16z 官方网站公开发布)这个数据清晰地表明:「单一模型供应商」的企业 AI 架构正在成为少数派,多模型路由正在成为主流实践。

AWS 在其 Bedrock 平台上已经提供了来自多个供应商的模型访问,包括 Anthropic、Mistral、Meta 的 Llama 系列等。截至2026年初,Bedrock 上可访问的基础模型数量超过50个,覆盖文本、图像、嵌入和代码等多个模态。(来源: AWS Bedrock 官方文档, 2026年)这个产品逻辑本身就说明了 AWS 的战略意图:不是押注单一模型赢家,而是成为企业客户访问所有模型的统一入口。

Matt Garman 的核心论点正是如此:AWS 的商业利益在于企业客户在 AWS 上消耗的算力和 API 调用,而不在于哪家模型公司最终胜出。(来源: TechCrunch, 2026-04-08)无论 OpenAI 还是 Anthropic 的模型被调用,AWS 都从中获益。

「模型路由层」的战略价值

这里有一个微妙但极其重要的商业逻辑需要拆解。

如果 AWS 只押注 Anthropic,那么当企业客户需要 OpenAI 的模型时,他们有动机迁移到 Azure 或直接调用 OpenAI 的 API。AWS 会失去这部分流量。反过来也一样。

但如果 AWS 同时提供 Anthropic 和 OpenAI 的模型访问,企业客户就没有理由因为「想用另一家的模型」而迁移云平台。AWS 成功地将「模型选择」这个决策锁定在自己的平台内部。

这是一种经典的平台战略:不是成为内容生产者,而是成为内容分发的基础设施。Netflix 和 Amazon Prime 同时购买来自不同制片公司的内容,不是因为它们不在乎内容质量,而是因为它们的核心价值在于「让用户不需要去别处找内容」。AWS 正在用同样的逻辑处理 AI 模型。

更精确的类比可能是 App Store。苹果不会因为 App Store 同时上架 Spotify 和 Apple Music 而感到矛盾——事实上,苹果从每笔 Spotify 订阅中抽取佣金,这比只卖自家音乐服务更赚钱。AWS 的双押策略,某种程度上就是在构建「AI 模型的 App Store」——从每一次模型调用中收取平台费,而不管哪个模型被调用。

这一战略的成立有一个前提:模型本身不能成为太强的差异化因素,以至于用户愿意为了某个特定模型而迁移整个技术栈。目前来看,这个前提基本成立——大多数企业客户在选择云平台时,考虑的是数据安全、合规、延迟、成本和现有系统集成,而不是「这家云厂商是否只支持我最喜欢的那个模型」。

对立视角:「双押」真的没有代价吗?

公平起见,需要认真对待反驳论点。

反驳一:深度合作需要排他性才能产生最大价值。 Anthropic 的 CEO Dario Amodei 在多个场合强调,Anthropic 与 AWS 的合作不仅仅是商业交易,而是涉及模型安全研究、定制芯片开发和长期技术路线的深度协同。(来源: Anthropic 官方博客, 2025年)如果 AWS 同时深度绑定 OpenAI,Anthropic 是否还愿意将最核心的技术路线与 AWS 共享?这种「深度合作的稀释」风险,可能在短期内不明显,但长期来看可能削弱 AWS 与 Anthropic 合作的质量。

反驳二:多元化可能导致「没有最优选择」的困境。 当 AWS Bedrock 上同时有50多个模型可选时,企业客户面临的选择复杂度急剧上升。「模型路由」听起来很美好,但实际上需要企业投入大量工程资源来评估、测试和维护不同模型的调用逻辑。对于中小型企业来说,这种复杂性可能反而是障碍,而不是优势。AWS 需要解决「选择悖论」——提供足够多的选择,同时让选择足够简单。

反驳三:OpenAI 可能只是暂时借道 AWS。 OpenAI 与 AWS 的合作,可能更多是 OpenAI 在 Azure 独占关系松动后的过渡性安排,而非长期战略绑定。一旦 OpenAI 完成了企业市场的渗透,它完全可能收紧与特定云平台的合作关系,转而强化自己的直销能力。从这个角度看,AWS 为 OpenAI 提供了分发渠道,但并不一定能建立足够深的绑定关系。

这些反驳并非没有道理。但从目前的市场格局来看,AWS 的双押策略在短中期内仍然是理性的——因为模型格局的不确定性足够高,任何单一押注都面临过高的机会成本。


第三层:大多数人没看到什么

悖论的真正含义:AWS 其实在对冲「模型价值归零」的风险

这是大多数分析忽略的一个深层逻辑。

AWS 向 Anthropic 投入约80亿美元,表面上是押注 Anthropic 的模型能力。但同时引入 OpenAI,实际上发出了一个截然相反的信号:AWS 并不真正相信任何单一模型会长期保持不可替代的优势地位。

如果 AWS 真的认为 Anthropic 的 Claude 系列会在未来5年内建立起无法逾越的技术护城河,最优策略应该是深度绑定 Anthropic,通过排他性合作获得竞争优势。但 AWS 没有这样做。

这背后的判断是:在模型能力快速迭代的今天,今天的领先者可能在6个月后被超越。这不是悲观主义,而是有数据支撑的现实判断。2023年3月,GPT-4 发布时被广泛认为是「遥遥领先」的模型;6个月后,Claude 2 和 Gemini Pro 相继发布,差距大幅缩小;到2024年底,Meta 的 Llama 3 系列在多个基准测试上已经接近闭源模型的水平;进入2025年和2026年,各家模型的迭代速度进一步加快,领先窗口持续收窄。(来源: LMSYS Chatbot Arena Leaderboard, 持续更新)这种迭代速度,使得任何「模型领先地位」的持续时间都大幅缩短。

截至2026年初,OpenAI、Anthropic、Google 和 Meta 均已发布了各自的新一代旗舰模型,在不同基准测试上各有胜负——没有任何一家公司能保证自己的技术领先地位会持续足够长的时间,以至于值得云厂商进行排他性押注。

Matt Garman 的「双押不是利益冲突」论断,实质上是在承认:模型层的竞争格局充满不确定性,而 AWS 的应对策略是通过多元化来对冲这种不确定性。(来源: TechCrunch, 2026-04-08)

这个判断如果正确,意味着 AI 模型正在走向「商品化」(commoditization)的早期阶段——不是说所有模型能力都相同,而是说差异化程度不足以支撑排他性的平台绑定。

这里有一个更深的洞察:AWS 的双押策略,不仅是对冲风险,更是在主动加速模型商品化的进程。 当 AWS 将 OpenAI 和 Anthropic 的模型并排放在 Bedrock 的同一个界面上,并允许企业客户基于成本和性能进行实时比较时,它实际上在向市场传递一个信号:这两家公司的产品是可比较、可替换的。这种「并排展示」的效果,会逐渐压制模型供应商的定价权,并强化「模型是商品」的市场认知。

从历史上看,类似的动态在云计算早期也出现过。当 AWS 开始将不同供应商的数据库、消息队列和缓存服务放在同一个控制台上时,这些服务的差异化溢价逐渐被压缩,竞争重心转移到了价格和可靠性上。AI 模型很可能正在走向同样的路径。

微软的反向逻辑:自研是另一种对冲

与 AWS 的「多元押注」策略形成鲜明对比的是微软的路径选择。

多家媒体报道,微软正在加大自研高性能大模型的力度,核心动机是降低对 OpenAI 的依赖。(来源: 36氪, 2026-03; The Information 亦有相关报道)这个战略选择揭示了一个不同的风险认知:微软认为过度依赖单一外部模型供应商是一种战略脆弱性,而解决方案是内部化能力,而不是外部多元化。

微软的自研努力并非从零开始。微软研究院(Microsoft Research)长期在机器学习领域积累,而通过与 OpenAI 的深度合作,微软工程师获得了大量接触前沿模型训练的机会。此外,微软已经发布了 Phi 系列小型语言模型,Phi-3 在2024年发布时在多个基准测试上超过了同等规模的竞争模型。(来源: Microsoft Research, “Phi-3 Technical Report”, arXiv:2404.14219, 2024-04)这表明微软的自研路线不是空谈,而是有实质性技术积累支撑的战略选择。

微软和 AWS 面临的底层问题是相同的:如何避免被模型供应商「卡脖子」。但两家公司给出了截然不同的答案:

  • 微软路径:自建模型能力,从「甲方」变成「自给自足者」。这需要大量的研发投入,但如果成功,能够彻底摆脱对外部模型的依赖。微软的 Phi 系列和内部大模型项目,是这一路径的具体体现。
  • AWS 路径:拥抱多元化,通过同时绑定多个模型供应商,让任何单一供应商都无法对 AWS 形成「断供威胁」。这不需要自建模型研发能力,但需要平台足够强大,以至于模型供应商都愿意接入。
  • Google 路径:垂直整合,从芯片(TPU)到模型(Gemini)到云平台(Google Cloud)全栈自研。这是三种路径中资本投入最大的,但也是理论上护城河最深的。

这三种策略的选择差异,部分反映了三家公司的历史积累:微软通过 OpenAI 深度合作积累了大量 AI 研发经验和人才,具备走自研路线的基础;AWS 在模型研发上的积累相对薄弱,多元化路线是更现实的选择;Google 拥有 Google DeepMind,在 AI 研究上的积累最为深厚,垂直整合是顺水推舟的选择。

但更深层的原因可能是:微软意识到,如果 Azure 的 AI 竞争力完全依赖 OpenAI,那么 OpenAI 的任何战略转向都会直接威胁 Azure 的市场地位。Elon Musk 对 OpenAI 的持续法律攻势——包括寻求罢黜 Sam Altman 和 Greg Brockman 的诉讼——(来源: CNBC, 2026-04-07)正是这种外部风险的具体体现:如果 OpenAI 的领导层因为法律纷争而出现重大变动,微软是否有足够的缓冲能力?自研模型能力,某种程度上是微软为这种极端情形准备的「保险」。

Musk 诉讼的结构性意义:外部风险如何重塑云厂商战略

Elon Musk 对 OpenAI 的诉讼,在大多数报道中被框架为一场硅谷恩怨或个人意志的冲突。但从云厂商战略的视角来看,这个事件有更深的结构性含义。

Musk 寻求罢黜 Sam Altman 和 Greg Brockman 的诉讼,(来源: CNBC, 2026-04-07)无论最终结果如何,都向市场传递了一个信号:OpenAI 的治理结构存在外部可攻击性。这种不确定性对于依赖 OpenAI 作为核心 AI 能力提供商的企业来说,是一个需要认真对待的风险因素。

这不是第一次 AI 公司的治理危机引发市场震动。2023年11月,OpenAI 董事会突然解雇 Sam Altman 的事件,导致数百名 OpenAI 员工联名威胁离职,微软股价在消息公布后出现短暂波动。(来源: The New York Times, 2023-11-17)虽然 Altman 在5天内回归,但这一事件清晰地展示了:当一家公司的治理结构不稳定时,依赖这家公司的整个生态系统都会承受风险。

对于 AWS 而言,OpenAI 的治理风险恰恰强化了「不能单押」的逻辑。如果 OpenAI 因为法律纷争或治理危机出现能力交付的中断,AWS 需要能够迅速将流量路由到 Anthropic 或其他模型供应商,而不是让企业客户的 AI 应用陷入瘫痪。

这是「模型路由层」战略的另一个维度:不仅是性能优化和成本管理的路由,也是风险管理的路由。云厂商作为企业客户的 AI 基础设施提供商,有责任确保服务的连续性——这要求他们不能对任何单一模型供应商形成单点依赖。

这里有一个大多数人没有充分认识到的深层含义:云厂商的「模型路由层」战略,实际上是在向企业客户出售「AI 服务连续性保险」。 企业客户支付给 AWS 的溢价,不仅仅是为了算力和 API 访问,也是为了「无论哪家 AI 公司出了问题,我的业务不会中断」的保障。这种保障的价值,在 AI 产业治理风险高企的当下,正在变得越来越显著。

OpenAI 的「企业 AI 下一阶段」:一次精心设计的多云化

OpenAI 与 AWS 和 Databricks 的合作,从 OpenAI 自身的视角来看,同样是一次精心设计的战略行动。

OpenAI 在其官方博客中描述的「Stateful Runtime」架构,允许企业客户在 AWS 的基础设施上运行 OpenAI 的模型,同时保持数据在企业自己的云环境内。(来源: OpenAI 官方博客, 2026-03-25)这个设计有几个值得注意的含义:

第一,OpenAI 在主动打破「Azure 独占」的印象。 通过与 AWS 合作,OpenAI 向市场传递信号:企业客户不需要迁移到 Azure 才能使用 OpenAI 的模型。这对于那些已经深度绑定 AWS 的大型企业来说,是一个重要的采购门槛降低。从市场份额数据来看,AWS 在全球云基础设施市场占据约31%的份额,Azure 约为25%,Google Cloud 约为12%。(来源: Synergy Research Group, 2025 Q4)这意味着 OpenAI 通过与 AWS 合作,能够触达此前无法有效覆盖的最大单一云市场份额。

第二,「Stateful Runtime」是 OpenAI 向企业市场渗透的技术抓手。 传统的 API 调用模式是无状态的——每次调用都是独立的,没有上下文持久化。「有状态运行时」意味着 OpenAI 的模型能够维持对话历史、用户偏好和业务上下文,这是企业级应用的核心需求。通过在 AWS 上提供这种能力,OpenAI 在技术层面更深地嵌入企业的业务流程。

第三,Databricks 的加入揭示了数据层的战略意图。 Databricks 是企业数据平台领域的重要玩家,截至2024年的融资中估值达到430亿美元(此后可能已有变化),服务超过10000家企业客户,其中包括超过60%的财富500强。(来源: Databricks 官方新闻稿, 2024-09)OpenAI 与 Databricks 的合作,意味着 OpenAI 的模型能够更直接地接触企业的核心数据资产。这对于构建定制化、高质量的企业 AI 应用至关重要,同时也意味着 OpenAI 在数据层建立了更深的护城河。

第四,这次多云化行动的时机选择耐人寻味。 OpenAI 宣布与 AWS 合作的时间节点,恰好是 Musk 诉讼引发市场对 OpenAI 治理稳定性担忧的时期。通过展示「我们与多个生态系统合作」的姿态,OpenAI 在一定程度上向企业客户传递了「我们不依赖任何单一合作关系」的信号,这有助于缓解企业客户对 OpenAI 治理风险的顾虑。


第四层:这意味着什么

AI 产业的「单一依赖链解体」正在加速

综合 AWS 的双押策略、微软的自研路线和 OpenAI 的多云化行动,可以清晰地看到一个结构性变化:AI 产业的单一依赖链正在系统性地解体。

在 2023-2024 年的 AI 热潮早期,产业格局相对简单:OpenAI 提供最好的模型,微软通过 Azure 分发,企业客户别无选择。这种单一依赖链虽然高效,但对链条上的每个参与者都构成了脆弱性。

现在,这个链条的每个节点都在主动构建冗余:

  • 模型供应商层:OpenAI 主动多云化,Anthropic 深度绑定 AWS,Google 的 Gemini 系列覆盖 Google Cloud 和第三方,Meta 通过开源策略让 Llama 系列在所有云平台上可用。
  • 云平台层:AWS 多元押注模型供应商,微软自研模型降低 OpenAI 依赖,Google Cloud 深度整合自家 Gemini 系列。
  • 企业客户层:越来越多的大型企业开始构建「模型无关」的 AI 应用架构,通过抽象层隔离对特定模型的依赖。根据 Gartner 2025年的调研,预计到2027年,超过70%的大型企业将采用多模型策略,而2024年这一比例仅为35%。(来源: Gartner, “Predicts 2025: Generative AI in Enterprises”, 2025年;注:该报告为付费内容,摘要可通过 Gartner 官网获取)

这种多向解耦,从短期看增加了系统复杂性,但从长期看提高了整个产业的弹性和竞争活力。

云厂商的真正护城河:不是模型,而是数据引力

这里有一个对企业决策者和投资者都极为重要的洞察:云厂商在 AI 时代的核心护城河,不是它们押注的模型有多强,而是它们积累的企业数据有多深。

「数据引力」(data gravity)这一概念最早由 Dave McCrory 在2010年提出,其核心观察是:数据会像引力一样吸引应用和服务向数据所在地聚集,而不是相反。(概念来源: Dave McCrory, “Data Gravity in the Clouds”)在 AI 时代,这一效应被进一步放大:AI 模型的性能很大程度上取决于它能否访问高质量的企业数据,而企业数据越多地存储在某个云平台上,AI 应用就越倾向于在这个平台上运行。

当企业客户将核心业务数据存储在 AWS 上,将 AI 应用构建在 AWS 的基础设施上,将 Bedrock 的模型路由能力嵌入业务流程中,他们迁移到其他云平台的成本会随着时间推移急剧上升。IDC 的研究显示,大型企业从一个主要云平台迁移到另一个平台的平均成本,在2025年已经超过1500万美元,且这一数字随着 AI 应用深度的增加还在持续上升。(来源: IDC, “Cloud Migration Cost Analysis”, 2025年;注:该报告为付费内容)这种「数据引力」才是云厂商在 AI 时代最深的护城河——而不是「我们押注了最好的模型」。

从这个角度看,AWS 的双押策略是高度理性的:通过同时绑定 OpenAI 和 Anthropic,AWS 确保了企业客户没有理由因为「模型选择」而迁移云平台。只要企业客户留在 AWS 上,他们的数据就留在 AWS 上,而数据的积累会反过来进一步强化留存。

对 Anthropic 和 OpenAI 的战略含义:被平台化的风险

这一格局对模型供应商本身也有深刻含义,而这是大多数分析没有充分展开的部分。

对于 Anthropic 而言,AWS 的双押意味着其「战略合作伙伴」的独特地位在一定程度上被稀释。Anthropic 曾经是 AWS 在模型层的核心押注,但随着 OpenAI 的加入,Anthropic 需要重新思考自己在 AWS 生态中的定位。纯粹依赖 AWS 的分发渠道可能不够,Anthropic 需要在技术能力上保持足够的差异化,以避免在 AWS 的「模型路由」框架下被商品化。

Anthropic 目前的应对策略,是在垂直场景上建立更深的差异化。Claude 系列在长上下文处理、代码生成和安全性方面有明确的技术定位,而不是试图在所有维度上与 OpenAI 正面竞争。(来源: Anthropic, Claude 3 Technical Report, 2024年)这种「差异化而非全面竞争」的策略,是模型供应商在云平台「并排展示」压力下的理性选择。

对于 OpenAI 而言,与 AWS 的合作是一把双刃剑。一方面,它打开了 AWS 庞大企业客户群的访问权限,有助于 OpenAI 的企业市场渗透。另一方面,它也意味着 OpenAI 的模型在 AWS 平台上与 Anthropic 的 Claude 系列直接竞争,接受企业客户基于性能和成本的理性比较。这种竞争压力,从长期看有利于模型能力的持续进步,但短期内可能压缩 OpenAI 的定价权。

更深远的风险是「平台化陷阱」(Platform Trap)。 历史上,当一个产品类别被平台化后,其独立商业价值往往会大幅下降。智能手机时代,独立的导航应用(如 Garmin 的移动端产品)在被整合进操作系统内置地图后,市场价值几乎归零。AI 模型是否会走向同样的命运?如果 AWS Bedrock 成为大多数企业访问 AI 模型的标准入口,那么 OpenAI 和 Anthropic 最终可能沦为 AWS 平台上的「内容供应商」,而不是独立的平台级公司。

这一风险的防范,需要模型供应商在应用层建立足够深的直接关系——这也是 OpenAI 大力推进 ChatGPT Enterprise、OpenAI API 直销和现在的「Stateful Runtime」企业架构的深层动机:在被云平台「中间化」之前,先建立足够多的直接企业关系。

前瞻性分析:未来3年的可能格局

基于上述分析,可以对未来3年的 AI 基础设施格局做出几个具体预判:

预判一:AWS Bedrock 的模型数量将在2027年超过100个,但真正被广泛使用的不超过10个。 「长尾模型」的存在主要是为了满足特定合规需求(如数据主权要求只能使用特定地区的模型)和特定垂直场景(如医疗、法律等需要专业化模型的领域),而不是因为通用模型能力有显著差异。这意味着 AWS 的平台价值将越来越体现在「智能路由」能力上,而不是模型数量上。

预判二:模型供应商的「直销比例」将成为关键财务指标。 如果 OpenAI 或 Anthropic 超过50%的企业收入来自云平台分发而非直销,这将是一个危险信号——意味着它们正在向「内容供应商」角色滑落。预计两家公司都会在2026-2027年大力强化直销能力,可能包括推出更多无需云平台中介的企业部署方案。

预判三:开源模型将成为「模型路由」生态的重要稳定器。 Meta 的 Llama 系列、Mistral 的开源模型等,为企业提供了一个「不依赖任何商业模型供应商」的选项。随着开源模型能力的持续提升,企业在谈判中对 OpenAI 和 Anthropic 的议价能力将增强,这反过来会进一步压缩商业模型的定价权。AWS 在 Bedrock 上积极整合开源模型,是在有意构建这种议价筹码。

预判四:「AI 基础设施层」的并购将在2026-2027年加速。 当模型路由、有状态运行时和企业数据集成成为关键战场时,拥有这些能力的中间件公司(如 LangChain、LlamaIndex 等)将成为云厂商和模型供应商的并购目标。AWS、微软或 Google 中,谁先完成对关键 AI 中间件公司的收购,谁就能在「调度层」建立更强的技术壁垒。

预判五:监管压力将成为「模型路由」战略的意外助推器。 欧盟的 AI Act 和美国的 AI 监管框架,都在向「AI 系统的可解释性和可替换性」方向演进。监管要求企业能够解释为什么选择了某个 AI 模型,以及在模型出现问题时能够快速切换——这恰恰是「模型路由层」的核心价值主张。监管合规的压力,可能比商业逻辑更快地推动企业采用多模型架构。

对企业 AI 采购决策的实际影响

对于正在构建企业 AI 能力的 CTO 和 CIO 而言,上述分析有几个直接的实践含义:

第一,「模型无关」的架构设计应该成为标准实践。 不要将应用层逻辑与特定模型的 API 深度耦合。使用抽象层(无论是 AWS Bedrock 的统一 API,还是 LangChain 等开源框架)将模型选择与业务逻辑解耦,这样当模型市场格局变化时,迁移成本最小化。

第二,云平台的选择比模型的选择更具长期锁定效应。 在 AWS、Azure 和 Google Cloud 之间的选择,比在 Claude 和 GPT 之间的选择更难逆转。企业应该将更多决策精力放在云平台选择上,而不是在模型供应商之间反复横跳。

第三,关注 Stateful Runtime 等新型企业 AI 基础设施。 OpenAI 与 AWS 和 Databricks 合作推进的「有状态运行时」架构,(来源: OpenAI 官方博客, 2026-03-25)代表了企业 AI 应用从「工具」向「系统」演进的技术方向。能够维持上下文、记忆和业务状态的 AI 运行时,将成为下一代企业 AI 应用的基础设施层。

第四,建立内部的「模型评估能力」是战略资产。 随着可选模型数量的增加,企业内部能否对不同模型进行系统性评估——包括性能、成本、安全性和合规性——将成为一种核心竞争力。那些建立了这种评估能力的企业,能够在「模型路由」中做出更优的选择,并在与云平台和模型供应商的谈判中拥有更强的议价能力。


结构性变化的深层逻辑:平台战争的第三幕

如果将过去30年的科技产业史看作一部三幕剧,当前正处于第三幕的开端。

第一幕(1990s-2000s):操作系统战争。微软通过 Windows 控制了 PC 时代的基础设施层,成为软件分发的垄断性平台。这场战争的核心逻辑是「标准化」——谁能让最多的软件开发者为自己的平台开发,谁就能赢。微软在这场战争中的胜利,建立在让 Windows 成为不可绕过的分发层之上。

第二幕(2010s-2020s):云计算战争。AWS、Azure 和 Google Cloud 通过控制计算、存储和网络基础设施,成为互联网时代的基础设施提供商。这场战争的核心逻辑是「规模经济」——谁能以最低成本提供最可靠的算力,谁就能赢得市场。AWS 凭借先发优势和持续的价格战,在这场战争中建立了领先地位。

第三幕(2020s-):AI 基础设施战争。这场战争的核心逻辑不再是简单的规模经济,而是「智能调度」——谁能在正确的时间,将正确的 AI 能力,以正确的成本,路由到正确的企业应用,谁就能赢得下一个十年的基础设施控制权。

这三幕之间有一个重要的演进逻辑:每一幕的胜利者,都是通过控制「分发层」而不是「内容层」来建立霸主地位的。微软控制的是软件分发,AWS 控制的是算力分发,而在第三幕中,谁能控制 AI 能力的分发,谁就掌握了战略制高点。

AWS 的双押策略,本质上是在第三幕开场时抢占「智能调度层」的位置。Matt Garman 的「不是利益冲突」论断,是对这一战略逻辑的公开宣示。(来源: TechCrunch, 2026-04-08)

但这场战争远未结束。Google Cloud 有 Gemini 的垂直整合优势,Azure 有 OpenAI 的深度绑定加上自研模型的备份,AWS 有 Bedrock 的多模型路由加上 Anthropic 的深度合作。三大云厂商都在向「AI 调度层」演进,只是路径不同。

一个值得关注的变量是:开源模型生态的发展速度,可能超出三大云厂商的预期。如果 Meta 的 Llama 系列或其他开源模型在2027年前达到与顶级闭源模型相当的能力,那么「谁控制了最好的闭源模型分发」这一命题的价值将大幅下降,而「谁能最有效地帮助企业微调和部署开源模型」将成为新的竞争焦点。在这个场景下,AWS 在 Trainium 芯片和 SageMaker 平台上的投入,可能比 Bedrock 的多模型路由更具战略价值。

最终的竞争结果,将取决于哪家云厂商能够最有效地将「模型路由能力」转化为「数据引力」——让企业客户的数据越来越难以迁移,同时让企业客户越来越依赖云平台提供的 AI 调度服务。

这是一场关于基础设施控制权的长期战争,而 AWS 的双押策略,只是这场战争开局阶段的一步棋。


So What:对读者意味着什么

如果你是企业技术决策者:AWS 同时押注 Anthropic 和 OpenAI 的事实,意味着你在 AWS 上使用哪家模型的成本差异正在缩小,但你选择哪个云平台的锁定效应正在增大。现在是建立「模型无关」架构的最佳时机——不是因为所有模型都一样好,而是因为模型格局的变化速度超过了企业技术栈的迁移速度。同时,你应该开始认真评估「AI 服务连续性」风险:如果你的核心 AI 供应商出现治理危机,你的业务有多大的缓冲能力?

如果你是 AI 产业的投资者:云厂商的双押策略是模型商品化趋势的早期信号。当 AWS 可以无差别地分发 OpenAI 和 Anthropic 的模型时,模型本身的定价权会受到压制。真正的价值将积累在数据层(谁拥有最多高质量的企业数据)和应用层(谁能将模型能力最有效地嵌入业务流程),而不是在模型层。值得关注的投资方向包括:企业 AI 数据管理平台、垂直行业 AI 应用(有深度数据壁垒的)和 AI 中间件基础设施。

如果你是 AI 创业者:「模型路由层」的形成,意味着直接与 OpenAI 或 Anthropic 在通用模型能力上竞争将越来越困难。机会在于垂直场景的深度优化——在特定行业或特定任务上建立足够深的数据壁垒和业务流程整合,使得通用模型路由无法替代你的解决方案。同时,要警惕「平台化陷阱」:如果你的产品最终只是云平台上的一个可替换插件,你的商业价值将随着平台整合而被压缩。

如果你是模型供应商(Anthropic、OpenAI 的战略团队):被云平台「并排展示」是一个需要认真对待的长期风险。应对策略包括:强化直销能力、在特定垂直场景建立不可替代的技术优势、通过「Stateful Runtime」等深度嵌入企业业务流程,以及在数据层(而非仅仅是模型层)建立护城河。

Matt Garman 说「双押不是利益冲突」,这句话的潜台词是:在 AI 基础设施的战争中,真正的利益不在于押注哪个模型,而在于成为所有模型都必须经过的那一层。这才是云厂商的终极战略目标。而对于产业链上的所有其他参与者来说,理解这一逻辑,是制定自身战略的起点。


参考资料

  1. AWS boss explains why investing billions in both Anthropic and OpenAI is an OK conflict — TechCrunch, 2026-04-08

  2. The next phase of enterprise AI — OpenAI 官方博客, 2026-03-25

  3. Elon Musk seeks ouster of OpenAI CEO Sam Altman as part of lawsuit — CNBC, 2026-04-07

  4. Amazon closes $4 billion investment in Anthropic — The Verge, 2024-03-27

  5. Amazon to invest an additional $4 billion in Anthropic — The New York Times, 2024-11-22

  6. Phi-3 Technical Report: A Highly Capable Language Model Locally on Your Phone — Microsoft Research, 2024-04

  7. LMSYS Chatbot Arena Leaderboard — LMSYS, 持续更新

  8. Cloud Infrastructure Services Market Shares — Synergy Research Group, 2025 Q4

  9. Dave McCrory, “Data Gravity in the Clouds” — 数据引力概念提出者,概念背景参考

  10. 来源: Gartner, “Predicts 2025: Generative AI in Enterprises”, 2025年(付费报告,摘要可通过 Gartner 官网获取)

  11. 来源: a16z, “Enterprise AI in the Real World” 报告, 2025年(通过 a16z 官方网站公开发布)

  12. 来源: IDC, “Cloud Migration Cost Analysis”, 2025年(付费报告)

  13. 来源: 36氪, “微软正自研高性能大模型以降低对 OpenAI 依赖”, 2026-03

主题分类:AI 投资与商业