AWS的双押策略:当世界最大云厂商决定成为Agent时代的操作系统
4月的最后一周,科技行业发生了一件表面看起来矛盾、实则逻辑严密的事情。
4月24日,Amazon宣布与OpenAI达成战略合作,OpenAI将Amazon作为”a primary cloud provider for new foundational training and inference infrastructure”。3天后的4月27日,AWS与OpenAI正式宣布多年战略合作(multi-year strategic partnership)。再隔一天,4月28日,OpenAI的模型、Codex和Managed Agents已经在AWS平台上线,TechCrunch确认企业客户可以直接通过AWS访问OpenAI全线AI能力。
72小时内,三个公告,一套完整的战略逻辑。
这件事的矛盾之处在于:AWS是Anthropic的主要算力伙伴,双方早已形成深度绑定。Anthropic的Claude系列模型是Amazon Bedrock上的核心模型之一,两家公司在基础设施层面的合作是公开事实。现在,AWS转头又把OpenAI——Anthropic最直接的竞争对手——请进了自己的平台。
这不是墙头草,这是一种非常清醒的战略选择。要理解这个选择,需要先理解AWS在2026年第一季度财报中透露的那个数字:AWS季度营收达到293亿美元,同比增长28%,创下15个季度以来的最高增速。在这个增长背后,AWS的管理层显然已经做出了一个判断——基于公开信息和财报电话会议的表述可以合理推断:云计算的下一个十年,竞争的核心不再是谁的数据中心更大,而是谁能成为AI Agent运行的默认操作系统。
第一章:72小时内的三连击——闪电落地背后的战略信号
要理解这次合作的速度,需要先理解它的不寻常之处。
大型科技公司之间的战略合作通常遵循一套固定节奏:宣布合作意向,几个月后完成技术集成,再过几个月产品正式上线,整个过程往往横跨一年以上。AWS与OpenAI的这次合作打破了这个惯例。从战略合作宣布到产品上线,间隔不超过48小时。这种速度意味着两件事:第一,技术集成工作在公告发布之前几乎可以确定已经基本完成——否则无法解释产品上线的速度;第二,双方都有强烈的动机在最短时间内向市场传递信号。
4月24日的第一个公告来自OpenAI官方,措辞值得仔细解读。OpenAI将Amazon定位为”a primary cloud provider for new foundational training and inference infrastructure”——注意这里用的是”a primary”而非”the primary”,这个细节说明OpenAI在云基础设施层面维持着多云策略,Microsoft Azure仍然是其核心合作伙伴,但Amazon现在进入了同一个层级。对于OpenAI来说,这是一次重要的基础设施多元化动作;对于AWS来说,这意味着世界上最具影响力的AI公司将在自己的平台上运行核心工作负载。
4月27日的第二个公告则更具体地指向了企业市场。AWS与OpenAI宣布的多年战略合作,核心内容包括三个层面:OpenAI的模型通过Amazon Bedrock提供访问,OpenAI Codex(代码生成Agent)在AWS上运行,以及OpenAI的Managed Agents直接部署在AWS基础设施上。这三个层面的组合不是偶然的——它们恰好覆盖了企业AI应用的三个最关键场景:通用语言模型调用、开发者工具链、以及自动化业务流程。
4月28日,TechCrunch确认Amazon已在AWS上提供新的OpenAI产品,产品上线速度之快令业界惊讶。这个时间节点同样值得注意——距离Amazon Q1财报发布(5月初)只有几天时间。据推测,AWS希望在财报电话会议之前,向投资者和企业客户展示其AI战略的具体落地成果,尽管AWS官方并未明确表述这一时间安排的动机。
从这个时间线可以看出,这次合作的”闪电落地”是经过精心设计的叙事节奏,而非技术能力的即兴展示。AWS在向市场传递一个明确信号:我们不只是在谈AI战略,我们已经在执行。
第二章:「既要Anthropic又要OpenAI」的深层逻辑
表面上看,AWS同时拥抱Anthropic和OpenAI是一种投机性的两面押注。但如果用这个框架来理解,就会错过这个战略的真正逻辑。
AWS的核心逻辑不是”押注哪个模型会赢”,而是”让AWS成为所有模型的运行平台”。这两种逻辑的商业含义截然不同。
前者的逻辑是:选择一个最可能成功的模型提供商,深度绑定,通过其成功来获取市场份额。这是Microsoft的路径——将Copilot与OpenAI深度绑定,将Azure定位为OpenAI的首选云平台,通过OpenAI的品牌效应和技术领先性来驱动Azure的企业客户增长。这个策略在短期内效果显著,但它的风险在于:如果OpenAI的技术优势收窄,或者出现新的模型提供商,Microsoft的差异化优势就会被稀释。
后者的逻辑是:构建一个模型无关的AI基础设施层,让所有主流模型都在你的平台上运行,通过平台的广度和深度来锁定企业客户。这是AWS正在执行的路径。Amazon Bedrock目前已经支持来自多个提供商的模型,包括Anthropic的Claude系列、以及现在的OpenAI模型。AWS的价值主张不是”我有最好的模型”,而是”你需要的所有模型都在这里,而且我们提供统一的安全、合规、监控和集成框架”。
这个策略的商业逻辑非常清晰:企业客户在选择AI基础设施时,面临的最大挑战不是”哪个模型更聪明”,而是”如何在保持合规、安全、成本可控的前提下,将AI能力集成到现有的业务流程中”。AWS的统一平台策略恰好解决了这个问题。
更深一层的洞察是:在AI Agent时代,这个策略的价值会进一步放大,因为Agent的价值不在于单次模型调用的质量,而在于整个工作流的可靠运行。 单个模型的调用是相对简单的技术问题,但一个完整的Agent工作流需要模型调用、工具集成、状态管理、错误处理、安全审计、成本控制等一系列能力的协同。AWS在这些”模型周边能力”上的积累,远超任何一个模型提供商。当OpenAI的Managed Agents在AWS上运行时,它依赖的不只是AWS的算力,还有AWS在安全、网络、存储、监控等层面长达20年的基础设施积累。
从这个角度看,AWS拥抱OpenAI不是对Anthropic的背叛,而是对”模型无关平台”战略的进一步强化。Anthropic是AWS平台上最重要的模型提供商之一,OpenAI的加入让这个平台更完整,而不是替换了什么。
这与Microsoft的路径形成了根本性的哲学分歧。Microsoft的Copilot战略是”模型驱动平台”——用OpenAI的技术优势来吸引企业客户使用Azure和Microsoft 365。AWS的策略是”平台容纳模型”——用平台的广度和深度来让企业客户无需在模型提供商之间做非此即彼的选择。
哪种策略更好?这取决于AI模型市场的最终格局——而这个格局目前仍在快速演变中。如果AI模型市场最终高度集中,某一两个提供商形成绝对优势,Microsoft的深度绑定策略会更有价值。如果AI模型市场保持分散,不同场景下不同模型各有优势(根据目前的市场格局和技术发展趋势,这是更可能的情景),AWS的模型无关平台策略会形成更持久的护城河。
我的判断倾向于后者,但需要声明这是基于当前市场格局的推断,而非确定性结论。AI模型的能力边界在快速移动,没有任何一家公司能保证在所有任务维度上长期保持领先。企业客户的理性选择是保持模型层面的灵活性,而这恰好是AWS平台策略的核心价值主张。
第三章:Amazon Q vs Microsoft Copilot——企业级AI助手的两种哲学
在AWS的整体Agentic化布局中,Amazon Q(以下称”Quick”以符合行文习惯,但正式产品名为Amazon Q)是一个关键但经常被低估的棋子。
SiliconAngle的报道确认,在4月28日前后,AWS同时宣布了对Amazon Q的agentic增强,以及对Amazon Connect(AWS的云联络中心服务)的AI能力升级。这两个产品的同步更新不是巧合,它们共同指向了AWS在企业AI市场的差异化定位。
Amazon Q的核心定位是企业内部知识Agent。它可以接入企业的内部文档、代码库、业务系统,帮助员工完成信息检索、代码生成、工作流自动化等任务。这个定位与Microsoft Copilot表面上高度相似——Copilot同样定位于企业AI助手,同样强调与企业内部数据的集成。
但两者之间存在一个根本性的哲学差异:Microsoft Copilot的核心竞争力来自于其与Microsoft 365生态的深度集成。如果你的企业已经深度使用Teams、Outlook、SharePoint、Excel,Copilot的价值是显而易见的——它生活在你已经工作的地方。这是一种”生态系内AI化”的策略,其护城河是Microsoft多年积累的企业软件生态。
Amazon Q的竞争逻辑则不同。AWS的企业客户通常是那些已经将核心业务系统迁移到云上的企业,他们的数据和工作负载已经在AWS上运行。Amazon Q的价值在于连接这些已经在AWS上的数据和系统,而不是依赖某个特定的前端软件生态。
更重要的是,AWS通过将Amazon Q的能力延伸到Amazon Connect,展示了一种不同的Agent部署哲学:不是把AI助手放在一个通用的聊天界面里,而是把Agent能力嵌入到具体的业务场景中。Amazon Connect是企业联络中心服务,其用户是客服代表和联络中心管理者。将Agentic AI能力嵌入Connect,意味着AI Agent可以在实际的客户服务流程中自主处理任务,而不只是回答员工的问题。
这种”垂直场景嵌入”的策略有一个重要的商业含义:它使AI的ROI更容易量化。企业很难准确衡量一个通用AI助手对生产力的提升,但他们可以非常精确地衡量联络中心的处理效率、客户满意度、人工介入率等指标。当AI Agent在具体业务场景中产生可量化的价值时,企业的采购决策会更加直接。
从这个角度看,AWS的Agentic化策略有三个层次:
- 第一层:通过Amazon Bedrock提供模型访问(基础设施层)
- 第二层:通过Amazon Q提供通用企业AI助手(平台层)
- 第三层:通过Connect等垂直产品提供场景化Agent(应用层)
这个三层结构与Microsoft的策略形成了有趣的对比。Microsoft的结构是:Azure提供基础设施,OpenAI模型提供核心AI能力,Microsoft 365 Copilot提供应用层。两者都有三层,但中间层的逻辑完全不同:Microsoft的中间层是模型提供商(OpenAI),AWS的中间层是平台(Bedrock)。这个差异决定了两者护城河的性质:Microsoft的护城河依赖于OpenAI的持续技术领先,AWS的护城河依赖于平台的广度和集成深度。
还有一个大多数分析师没有充分讨论的维度:开发者生态。当OpenAI的Codex在AWS上运行时,使用Codex的开发者会自然地将他们的开发工作流部署在AWS上。这是一种隐性的生态锁定——不是通过合同条款,而是通过工作流惯性。AWS深谙这种锁定机制,它在过去20年里通过S3、Lambda、DynamoDB等服务建立了强大的开发者生态,现在它正在将同样的逻辑应用于AI Agent时代。
第四章:AWS Q1财报背后的增长引擎切换
2026年第一季度,Amazon总净销售额达到1555亿美元,AWS部门营收为293亿美元,同比增长28%,是15个季度以来的最高增速。
这个数字需要放在正确的背景下理解。
28%的增速对于一个季度营收接近300亿美元的业务来说,是一个异常强劲的数字。要理解它的含义,需要回顾AWS的增速轨迹:在2022-2023年的企业IT支出收缩周期中,AWS的增速曾经跌至个位数。当时的主流叙事是”云计算成熟化,增速必然下滑”。现在,AWS的增速不仅恢复,而且达到了多年高点。
是什么驱动了这个反转?根据Amazon官方财报及管理层在财报电话会议中的表述,AI服务是AWS增长加速的核心驱动力之一。这不是一个模糊的表述——企业在AI基础设施上的支出正在从”探索预算”转向”核心IT预算”,这种转变在财务上的体现就是AWS的加速增长。
但更值得关注的是AWS的资本支出信号。The Next Web的报道指出,Amazon Q1净收入中包含了一笔来自Anthropic投资的168亿美元收益(需要注意,这是投资重估收益而非现金流入),这使得净利润数字看起来异常亮眼,但同时自由现金流大幅下降。这个现象揭示了一个重要的底层逻辑:Amazon正在大规模加速AI基础设施投资,而这种投资在短期内会压缩自由现金流,但管理层显然认为这是必要的。
大规模资本支出加速,叠加AI服务驱动的收入增长,这是AWS正在经历”增长引擎切换”的财务信号。传统云服务(存储、计算、数据库)仍然是AWS的基础盘,但它们的增长率相对稳定。AI相关服务——包括训练算力、推理算力、Bedrock上的模型调用、以及现在的Agentic服务——正在成为增长的边际驱动力。
这个背景解释了为什么AWS在此时加速Agentic化布局。当一个新的增长引擎开始点火,最重要的事情是在竞争对手建立壁垒之前,尽快确立自己的平台地位。AWS与OpenAI的合作、Amazon Q的agentic增强、Connect的AI能力升级,这些动作集中在同一个时间窗口内发生,不是巧合,而是AWS管理层对市场窗口期的判断——这一推断基于多个动作的时间集中性和财报前的发布节奏。
还有一个财务维度值得深入讨论:AI Agent的单位经济学与传统云服务有本质区别。传统云服务的计费单元是计算时间、存储容量、网络流量——这些都是相对标准化的商品,竞争最终会压缩利润率。AI Agent服务的计费逻辑则不同:它的价值不是”消耗了多少算力”,而是”完成了多少任务”。当AWS能够以”每个Agent完成的任务”作为价值单元时,它的定价权会显著强于传统云服务。
这是AWS Agentic化战略中最重要但最少被讨论的财务逻辑:从”算力出租”转向”任务完成服务”,是一次商业模式的根本性升级,而不只是产品线的扩充。需要指出的是,这种计费模式的转变目前仍处于早期阶段,AWS尚未公开披露Agentic服务的具体定价结构,上述分析是基于行业趋势和AWS历史定价策略的合理推断。
第五章:大多数人没看到的那一层——Agent基础设施的控制点争夺
在关于AWS-OpenAI合作的大多数报道中,讨论集中在两个问题:这对Anthropic意味着什么?这对Microsoft意味着什么?这两个问题都重要,但它们都停留在”谁赢谁输”的竞争叙事框架内,而忽略了一个更根本的问题:当AI Agent成为企业IT的核心组件,谁控制了Agent的运行环境?
要回答这个问题,需要理解AI Agent的技术架构。一个生产级的AI Agent不只是一个模型调用——它需要:工具调用接口(Tool Calling API),用于让Agent与外部系统交互;状态持久化,用于维护多轮任务的上下文;安全沙箱,用于控制Agent的权限边界;监控和可观测性,用于追踪Agent的行为和成本;以及错误处理和重试机制,用于处理Agent执行失败的情况。
这些能力的组合构成了”Agent运行时”(Agent Runtime),而这个运行时才是真正的控制点。模型本身——无论是Claude还是GPT-4o——只是Agent的”大脑”,但Agent的”身体”是由运行时提供的。这是本文最核心的洞察:在AI Agent时代,真正的平台权力不在于拥有最聪明的大脑,而在于控制大脑运行的身体。
AWS正在构建的,正是这个运行时层。当OpenAI的Managed Agents在AWS上运行时,它们依赖的是AWS提供的运行时基础设施。这意味着即使OpenAI的模型在未来被更强的模型取代,AWS在Agent运行时层面的价值不会消失——因为企业客户的Agent工作流、集成配置、安全策略都已经构建在AWS的运行时之上。
这是一种非常聪明的战略布局:通过成为Agent的运行环境,AWS将自己的价值从”模型调用的计费通道”提升为”Agent工作流的不可替代基础设施”。模型可以切换,但运行时的迁移成本极高。
SiliconAngle的报道特别提到了AWS在Connect上的agentic增强,这个细节揭示了另一个控制点:企业系统集成。Amazon Connect已经与企业的CRM系统、工单系统、知识库等深度集成。当AI Agent能力嵌入Connect时,它实际上继承了Connect已有的所有企业系统连接。对于一个企业来说,要将AI Agent迁移到其他平台,不只是需要迁移模型调用,还需要重建所有这些系统集成——这是一个极高的迁移成本。
这个逻辑与AWS在早期云计算时代的策略如出一辙:通过提供越来越多的托管服务(RDS、DynamoDB、SQS等),将企业客户的工作负载深度嵌入AWS生态,使得迁移的成本远超迁移的收益。现在,AWS正在将同样的逻辑应用于AI Agent时代,而且执行得更加系统化。
对立视角值得认真对待: 有人会说,AWS的”模型无关平台”策略本质上是在赌AI模型市场会保持分散,但如果某个模型提供商(比如OpenAI或Anthropic)在未来建立了类似CUDA的生态护城河,企业客户会直接使用该提供商的原生平台,而不是通过AWS的中间层。这个反驳有一定道理,而且不能完全排除这种可能性。但它忽略了一个关键事实:AI模型的护城河与GPU计算的护城河有本质区别。CUDA的护城河来自于开发者工具链的深度积累和硬件绑定,很难复制。但AI模型的能力差距在快速收窄——过去18个月内,Claude、GPT、Gemini以及多个开源模型在主流基准测试上的差距已经从代际差异缩小到了百分比级别的差异——而且企业级AI的竞争不只是模型能力,更是安全、合规、集成、支持等”企业级服务”的综合竞争——这恰好是AWS的传统优势领域。
第六章:云计算的「Android时刻」——以及它对整个行业的含义
Android的成功不是因为它是最好的移动操作系统,而是因为它成为了最广泛的移动操作系统。Google通过开放Android给所有硬件厂商,建立了一个生态,而这个生态的广度最终成为了真正的护城河。Apple的iOS在技术上可能更精致,但Android的生态广度使其在全球市场上占据了主导地位。
AWS正在下一盘类似的棋。在AI Agent时代,”操作系统”不再是运行在设备上的软件,而是运行Agent的云平台。AWS通过同时支持Anthropic和OpenAI——以及其他模型提供商——正在构建一个类似Android的开放生态:不限定模型,不限定应用场景,但提供统一的运行环境、安全框架和集成工具。
需要指出这个类比的边界:Android的开放性是通过开源实现的,而AWS的”开放”是商业层面的多模型支持,其底层基础设施仍然是专有的。这意味着AWS的”Android时刻”更准确地说是一种生态策略的类比,而非技术架构的完全对应。
Microsoft的Copilot策略更像是Apple的iOS:深度整合、高度优化、但相对封闭。如果你已经在Microsoft生态里,Copilot的体验会非常流畅;但如果你的工作流不在Microsoft生态里,Copilot的价值就会大打折扣。
Google Cloud在这个竞争格局中处于一个有趣的位置:它有自己的Gemini模型,同时也在构建类似Bedrock的多模型平台(Vertex AI Model Garden)。但Google Cloud在企业市场的渗透率历来低于AWS和Azure,这使得它在构建Agent运行时生态时面临先天劣势——尽管Google在AI研究能力上的积累不应被低估。
从整个行业的角度看,AWS-OpenAI合作的深远影响在于:它加速了”AI模型商品化”的进程。当世界上最重要的AI模型(来自OpenAI和Anthropic)都可以通过同一个平台(AWS Bedrock)访问时,模型本身的差异化价值会被稀释,而平台的价值会上升。这对AWS有利,对模型提供商则是一把双刃剑——更大的分发渠道,但也意味着更强的平台依赖。
对于企业客户来说,AWS的这次战略转型意味着一个实际的采购决策变化:你不再需要在”用Anthropic还是用OpenAI”之间做选择,你可以在AWS上同时使用两者,并且通过统一的接口、统一的计费、统一的安全策略来管理它们。这种”AI one-stop-shop”的价值主张,在企业IT采购决策中具有相当大的吸引力。
结语:AWS押注的是什么
回到最开始的问题:AWS为什么要在已经深度绑定Anthropic的情况下,又与OpenAI建立多年战略合作?
答案不是”对冲”,不是”两面押注”,而是”定义平台边界”。
AWS管理层做出了一个判断:在AI Agent时代,云平台的价值不来自于拥有最好的模型,而来自于成为所有模型运行的最佳环境。这个判断如果正确,那么支持的模型越多、场景越广、集成越深,AWS的护城河就越强。Anthropic和OpenAI不是竞争关系,它们都是AWS平台生态的组成部分,就像不同的应用程序都是操作系统生态的组成部分一样。
AWS Q1财报中293亿美元的营收和28%的同比增速,是这个战略开始兑现的早期信号。资本支出的大幅增加,是AWS在用真金白银押注这个判断。与OpenAI的闪电落地合作,是AWS在向市场宣示:我们不只是在谈战略,我们在执行。
对于企业技术决策者来说,这意味着一个重要的评估维度:在选择AI基础设施时,不只是评估某个模型的能力,更要评估运行这些模型的平台是否提供了足够的”Agent运行时”能力——安全、合规、集成、可观测性、成本控制。AWS正在这个维度上建立领先优势,而这个优势的复利效应会随着时间推移不断累积。
当然,这个战略的最终成败取决于多个外部变量:AI模型市场是否保持分散、企业AI采用速度是否符合预期、以及竞争对手(特别是Microsoft和Google)的应对策略是否有效。但基于目前可观察到的市场信号,AWS的平台逻辑具有结构性优势。
云计算的下一个十年,不会由谁的模型更聪明来决定,而会由谁的平台让Agent跑得最顺来决定。AWS的这次全线Agentic化转型,是一次清醒的、系统化的、以平台逻辑为核心的战略赌注。
赌注的规模,与AWS的体量相称。
参考资料
-
OpenAI models, Codex, and Managed Agents come to AWS — OpenAI官方博客, 2026-04-28
-
AWS and OpenAI announce multi-year strategic partnership — OpenAI官方博客, 2026-04-27
-
OpenAI and Amazon announce strategic partnership — OpenAI官方博客, 2026-04-24
-
Amazon is already offering new OpenAI products on AWS — TechCrunch, 2026-04-28
-
Amazon.com Announces First Quarter Results — Amazon Investor Relations, 2026-05
-
Amazon Q1 revenue hits $181.5B but $16.8B Anthropic gain inflates net income as free cash flow collapses 95% — The Next Web, 2026-05
-
Amazon Q1 2026 earnings beat as AWS growth hits 15-quarter high — Yahoo Finance, 2026-05
-
Putting AI to work: AWS unveils agentic enhancements for Connect and Quick alongside new alliance with OpenAI — SiliconAngle, 2026-04-28
主题分类:AI商业模式/企业AI落地