Trainium几乎售罄的真相:客户是真的选择了Amazon芯片,还是被AWS生态锁定后的被动接受
2026年初,Andy Jassy在年度股东信中抛出了一个让硅谷反复咀嚼的数字:Amazon的芯片业务有望达到200亿美元ARR,Jassy本人暗示这一数字”可能价值500亿美元”,并首次公开提及Amazon可能向外部客户出售Trainium芯片。与此同时,AWS公布了244亿美元的合同积压(backlog),AWS年化营收跑道(run rate)达到142亿美元量级。在这些数字的背后,是Amazon宣布的2026年2000亿美元资本支出计划——这一数字超过了英伟达2025财年全年营收的两倍。
但Jassy在信中夹带的另一个细节更值得深挖:Trainium芯片”几乎售罄”。这句话在科技媒体的报道中被反复引用,却鲜少被追问:这究竟是真实的市场选择,还是一个被AWS生态精心构建的”被动消费”?
一、数字本身说了什么,又遮住了什么
先把数字摆清楚。根据The Next Web和GeekWire对Jassy股东信的报道,Amazon芯片业务的ARR目标是200亿美元,而Jassy给出的估值参考是500亿美元。CRN的报道则补充了更多细节:Jassy在接受采访时专门提到了Trainium4的研发进展,以及AWS 244亿美元的合同积压。Trading News的分析指出,AWS run rate已达142亿美元。
(来源: The Next Web, 2026; GeekWire, 2026; CRN, 2026; Trading News, 2026)
这些数字的组合构成了一幅表面上极为强势的图景:芯片业务高速增长、云服务积压创历史新高、资本支出空前扩张。但有几个问题是这些数字本身无法回答的:
第一,200亿ARR中有多少来自Amazon自用,有多少来自真正的外部客户付费?
Amazon是全球最大的AI基础设施自用者之一。Amazon的推荐系统、物流优化、Alexa、Amazon广告的竞价算法,以及AWS内部的大量服务,都在消耗算力。如果Trainium的”ARR”中有相当比例来自Amazon内部的内部结算(internal transfer pricing),那么所谓”芯片业务”的商业价值需要打一个相当大的折扣。截至本文发布时,Amazon没有公开披露Trainium营收中内部消耗与外部客户付费的具体比例。
值得注意的是,Trading News在其分析中将Amazon的芯片业务描述为一个”隐藏的200亿美元业务”,这个措辞本身就暗示了信息不透明的问题。(来源: Trading News, 2026) 在传统半导体行业中,英伟达、AMD的营收结构是高度透明的——按数据中心、游戏、专业可视化等业务线分拆披露。而Amazon的芯片业务营收被包裹在AWS的整体营收中,外部分析师只能通过管理层的口头表述来推测其规模。这种信息不对称使得”200亿ARR”和”500亿估值”这两个数字的可验证性大打折扣。
第二,”几乎售罄”是供不应求,还是产能本来就没有大规模扩张?
一颗芯片”售罄”可以有两种完全不同的含义:其一是需求旺盛到超过供给,其二是供给本来就是按照特定客户群的预期需求精确规划的,自然不会有大量库存。英伟达H100在2023-2024年的”售罄”属于前者,有大量排队等待的证据。Trainium的”售罄”属于哪种,目前没有独立的第三方数据可以验证。
第三,2000亿资本支出的结构是什么?
Jassy在GeekWire的采访中明确为这笔支出辩护,称”不是基于直觉,而是基于数据”。但2000亿美元的capex分配到数据中心建设、网络基础设施、芯片采购(包括英伟达GPU)和自研芯片产线的比例,目前没有公开的细项分解。这个结构直接决定了Trainium在Amazon整体AI战略中的真实权重。
二、Trainium的技术路径:从”够用”到”好用”的漫长跋涉
要理解客户为什么会用或不用Trainium,必须先理解它的技术定位。
Amazon的自研芯片战略始于Annapurna Labs的收购(2015年),最初专注于Graviton通用计算芯片。AI加速芯片Inferentia(推理)和Trainium(训练)是后来者。Trainium的设计哲学从一开始就是”足够好的性价比”而非”绝对性能领先”——这与Google TPU的路径类似,但Amazon的生态整合能力和Google相比处于不同的起点。
Trainium2已经在AWS上线,而Jassy在CRN的采访中专门提到了Trainium4的研发,这意味着Amazon的芯片迭代节奏正在加速。从架构角度看,Trainium系列的核心卖点不是单芯片的FLOPS峰值,而是与AWS生态(SageMaker、Bedrock、HyperPod)的深度集成。
AWS官方博客上关于SageMaker HyperPod推理最佳实践的文章,以及SageMaker JumpStart基于用例的部署功能,都指向同一个方向:Amazon正在把芯片能力包裹进更高层的托管服务中,让用户在不直接接触硬件细节的情况下消耗Trainium算力。(来源: AWS Machine Learning Blog)
这个策略的聪明之处在于:它把”选择Trainium”这个决策从用户的意识层面移走了。用户在Bedrock上调用一个模型,在JumpStart上一键部署一个工作负载,背后跑在什么芯片上,他们可能根本不知道,也不在乎——只要价格合理、延迟可接受。
具体来看SageMaker HyperPod的推理最佳实践文档,其中详细描述了如何在HyperPod集群上配置模型并行策略、优化批处理大小、管理多租户推理请求的排队机制。(来源: AWS Machine Learning Blog) 这些技术细节的公开程度,实际上揭示了Amazon在推理场景中推广Trainium的策略重心:不是让用户直接选择Trainium实例,而是让HyperPod作为一个抽象层,自动将工作负载调度到最合适的硬件上——而”最合适”的定义权掌握在AWS手中。这意味着,当AWS的调度算法判断某个推理请求可以在Trainium上以可接受的延迟完成时,用户的工作负载就会被路由到Trainium实例上,而用户看到的只是一个统一的API端点和一个账单。这种”透明调度”模式是理解Trainium渗透率的关键——它使得”Trainium的使用量”和”用户主动选择Trainium”之间出现了一个巨大的认知鸿沟。
三、生态锁定的解剖:AWS是如何让”被动接受”变得理所当然的
这里需要引入一个分析框架:区分”主动选择”和”被动接受”,本质上是在问客户的转换成本(switching cost)有多高,以及他们在做决策时有没有真正的替代选项。
3.1 工具链的粘性
AWS在2026年4月发布的一系列产品更新揭示了这个生态的密度:Amazon Bedrock上线了Claude Mythos Preview(与Anthropic的深度合作),AWS AgentCore推出了Agent Registry功能用于集中式智能体发现和治理,Spring AI SDK for Amazon Bedrock AgentCore正式GA。(来源: AWS官方博客, 2026-04)
这些产品的共同特征是:它们都是建立在Bedrock这个统一平台上的,而Bedrock的底层基础设施包含Trainium算力。当一个企业客户把自己的AI Agent工作流建立在AWS AgentCore上,把模型调用建立在Bedrock上,把数据管道建立在S3和SageMaker上,他们的工作负载迁移成本已经不再只是芯片层面的问题,而是整个AI应用架构的重构成本。
这是AWS生态锁定的第一层:工具链粘性。
3.2 定价杠杆
Amazon有一个其他芯片厂商没有的独特优势:它同时是芯片的生产者和云服务的定价者。这意味着Amazon可以在Trainium实例的定价上给出比英伟达A100/H100实例更低的价格,同时通过更高层服务(Bedrock API调用、SageMaker托管端点)的利润来弥补。
这种交叉补贴(cross-subsidization)策略在竞争法上处于灰色地带,但在商业实践中极为有效。对于一个预算敏感的AI创业公司来说,”Trainium实例便宜30%”是一个很难拒绝的理由——即使他们对Trainium的性能并不完全信任。
3.3 合规和数据主权的隐性推力
244亿美元的AWS合同积压背后,有相当比例来自政府、金融、医疗等高度监管行业的客户。这些客户选择AWS往往不是因为技术最优,而是因为合规认证(FedRAMP、HIPAA、SOC2等)的覆盖范围。当他们的工作负载被锁定在AWS的合规边界内,他们对底层芯片的选择权就大幅收窄了。
3.4 Bedrock的模型市场效应
Amazon Bedrock目前是AWS上AI模型的统一访问层,集成了Anthropic Claude(包括最新的Claude Mythos Preview)、Meta Llama、Mistral等多个主流模型。(来源: AWS官方博客, 2026-04) 这个模型市场的存在,使得企业客户不需要自己维护模型服务基础设施,极大地降低了上手门槛——但同时也把他们更深地绑定在了AWS的算力供给链上。
四、反驳视角:Trainium确实在赢得真实的技术认可
公平起见,必须呈现另一个视角:Trainium的”售罄”中,确实存在真实的技术选择成分,而不全是被动接受。
4.1 大型科技公司的主动采用
Amazon的芯片业务能够达到200亿ARR量级,不可能只靠中小企业的”被动消费”支撑。在这个规模上,必然有头部客户做出了主动的技术选择。Jassy在股东信中暗示可能向外部出售Trainium芯片,这个表述本身意味着已经有外部客户在使用——否则这个”外部销售”的叙事就没有基础。截至本文发布时,Amazon没有公开具体的Trainium外部客户名单。
4.2 性价比确实在特定场景下成立
Trainium的设计针对的是大规模训练工作负载的吞吐量优化,而非单次推理的延迟最小化。对于需要持续大批量训练的客户(比如需要频繁fine-tuning的企业AI应用),Trainium的性价比优势在特定场景下是真实的。AWS官方博客上关于SageMaker HyperPod推理最佳实践的文章,详细描述了如何在HyperPod集群上优化推理性能,这些文档的技术深度表明Amazon有真实的工程投入,而不只是营销包装。(来源: AWS Machine Learning Blog)
4.3 Trainium4的信号意义
Jassy在CRN采访中专门提到Trainium4,这是一个重要信号。(来源: CRN, 2026) 如果Trainium只是一个”够用就行”的内部工具,不需要持续四代迭代。Trainium4的存在意味着Amazon在芯片架构上有长期的技术投入,而不是一个机会主义的短期项目。这种持续迭代本身会吸引那些需要长期技术合作伙伴的大客户。
更值得关注的是Trainium4在Amazon芯片路线图中的位置。从Trainium1到Trainium4,每一代的迭代周期大约在18-24个月,这个节奏与英伟达从A100到H100再到B200的迭代速度基本同步。Jassy在CRN的采访中特别强调了Trainium4在互联带宽和内存容量上的提升方向,这暗示Amazon的芯片团队正在针对大模型训练中最核心的瓶颈——跨节点通信和模型参数的内存占用——进行定向优化。(来源: CRN, 2026) 如果Trainium4能够在这两个维度上实现显著突破,它将首次具备在大规模分布式训练场景中与英伟达下一代GPU正面竞争的技术基础。这不再是”够用就行”的定位,而是向”在特定场景下更优”的方向迈进。当然,这一切都需要等到Trainium4实际上线后的独立基准测试来验证——Amazon自己发布的性能数据,在缺乏第三方复现的情况下,只能作为参考而非结论。
五、2000亿capex的真实逻辑:不是赌注,是结构性投入
Jassy在GeekWire的采访中对2000亿美元资本支出的辩护值得细读。他的核心论点是:这不是基于直觉的赌注,而是基于客户需求的可见性(visibility)做出的投入。(来源: GeekWire, 2026)
这个说法需要拆解。AWS的244亿美元合同积压(backlog)是有合同约束的承诺收入,这部分确实给了Amazon一定的需求可见性。但2000亿美元的capex显然远超现有积压所能支撑的范围,这意味着Amazon在对未来需求做出相当大的押注。
5.1 capex的战略意图:制造竞争壁垒
从竞争策略角度看,2000亿美元capex的部分逻辑是:通过大规模的基础设施投入,制造一个竞争对手难以跨越的规模壁垒。微软和Google也在做类似的事情,但Amazon的独特之处在于它同时在做自研芯片——这意味着Amazon试图在算力供给链的多个层面同时建立壁垒。
如果Trainium能够成为AWS核心算力的重要来源,Amazon就可以在某种程度上摆脱对英伟达GPU供给的依赖,从而在GPU短缺时期获得相对于其他云厂商的竞争优势。这是2000亿capex中自研芯片投入的真实战略价值——不只是节省芯片采购成本,而是供应链韧性。
把这个数字放在更宏观的行业背景下看,Trading News的分析指出AWS的年化run rate已达142亿美元,并提出了”280亿是否是下一个目标”的问题。(来源: Trading News, 2026) 如果AWS的营收增速维持在当前水平,2000亿美元的capex大约相当于AWS未来12-18个月营收的总和。这个capex/revenue比率在云计算行业中是极为激进的——作为对比,微软Azure和Google Cloud的同期capex/revenue比率大约在60%-80%之间。Amazon之所以敢于维持如此高的投资强度,一方面是因为244亿美元的合同积压提供了一定的收入确定性,另一方面是因为自研芯片战略在长期可以显著降低单位算力的边际成本。但这个逻辑的前提是:Trainium的良率、性能和软件生态必须持续改善到足以承载AWS核心工作负载的水平。如果Trainium在任何一个环节掉链子,这2000亿美元中分配给自研芯片的部分就会变成沉没成本。
5.2 向外部销售的信号:从成本中心到利润中心
Jassy暗示可能向外部销售Trainium芯片,这是一个战略转折点的信号。(来源: The Next Web, 2026) 目前Trainium的商业模式是”芯片能力包裹在云服务中销售”,外部销售意味着Amazon可能考虑直接的芯片/硬件销售,类似于Google向外部销售TPU Pod的模式。
这个转变的商业逻辑是清晰的:如果Amazon的芯片制造能力已经足够成熟,向外部销售可以大幅提高芯片业务的利润率,因为直接硬件销售的ASP(平均售价)通常高于云服务中的算力定价。但这也会带来一个战略矛盾:直接销售Trainium意味着帮助竞争对手(比如其他云厂商或大型企业的自建数据中心)建立算力能力,这与AWS的云服务销售存在潜在的渠道冲突。
截至本文发布时,Amazon没有公布Trainium外部销售的具体时间表和商业模式细节。
六、与英伟达的真实对比:不是替代,而是共存的博弈
任何关于Trainium的分析都无法回避英伟达。但这里需要避免一个常见的叙事陷阱:把Trainium和英伟达GPU描述为简单的替代关系。
现实是:Amazon在大规模采购英伟达GPU的同时,也在大规模部署Trainium。2000亿美元的capex中,英伟达GPU仍然是重要的组成部分。这种”自研芯片+第三方GPU”的双轨策略,是所有主要云厂商(AWS、Google Cloud、Microsoft Azure)的共同选择。
差异在于比例和节奏。Google的TPU策略更激进,TPU在Google内部训练工作负载中占据了更高的比例。Amazon的Trainium策略相对保守,更多地依赖生态整合而非纯粹的技术性能竞争。这种保守策略的好处是风险更低,坏处是技术领先性的信号不够强,难以吸引那些追求极致性能的顶尖AI研究机构。
OpenAI、Anthropic等头部AI实验室的训练工作负载仍然高度依赖英伟达GPU,这是Trainium在”真实技术选择”市场中面临的最核心的挑战。Anthropic虽然与Amazon有深度合作(Claude系列模型在Bedrock上提供服务),但这并不等于Anthropic在用Trainium训练Claude——截至本文发布时,没有公开信息证实这一点。
这里有一个容易被忽视的结构性因素:英伟达的竞争优势不仅仅在于芯片本身,更在于其围绕CUDA构建的整个计算生态。全球数百万AI开发者、数万个优化过的开源库、以及几乎所有主流深度学习框架(PyTorch、JAX、TensorFlow)对CUDA的原生支持,构成了一个自我强化的网络效应。Amazon的Neuron SDK虽然在持续改进,但其开发者社区规模、第三方库的丰富程度、以及在学术界的采用率,与CUDA生态之间仍然存在数量级的差距。这意味着,即使Trainium在硬件规格上逐步接近甚至在某些指标上超越英伟达同代产品,软件生态的差距仍然会是阻碍其在”主动选择”市场中扩大份额的最大瓶颈。Amazon对此显然有清醒的认知——这也是为什么它选择了”把芯片包裹在托管服务中”的策略,而不是在裸金属实例层面与英伟达正面竞争。
七、大多数人没看到的第三层:Trainium的真正战场不是芯片,而是AI应用的基础设施控制权
这是这篇文章最核心的洞察。
大多数关于Trainium的讨论停留在”Trainium vs. 英伟达GPU”的芯片性能比较层面,或者”Amazon能省多少GPU采购成本”的财务分析层面。但这两个角度都遮住了更深的战略逻辑。
Trainium的真正战场,是对AI应用基础设施控制权的争夺。
7.1 从芯片到平台的控制链
看看2026年4月AWS发布的产品组合:Claude Mythos Preview在Bedrock上线、AWS Agent Registry在AgentCore中进入Preview、Spring AI SDK for Bedrock AgentCore正式GA。(来源: AWS官方博客, 2026-04) 这些产品共同构成了一个AI应用开发的完整栈:
- 模型层:Bedrock提供多模型访问(Anthropic Claude, Meta Llama等)
- 智能体层:AgentCore提供Agent的构建、注册、发现和治理
- 开发框架层:Spring AI SDK降低Java生态开发者的接入门槛
- 基础设施层:SageMaker HyperPod提供大规模训练和推理集群
- 芯片层:Trainium提供定制算力
这个栈的每一层都在强化其他层的粘性。当Spring AI SDK的Java开发者用AgentCore构建了一个复杂的多Agent工作流,调用Bedrock上的Claude Mythos模型,跑在SageMaker HyperPod集群上——这个工作流的每一个组件都深度依赖AWS的专有API和服务。
在这个架构中,Trainium不需要在芯片性能上打败英伟达。它只需要在AWS的生态内足够好,让用户在不知不觉中消耗Trainium算力,同时让整个工作负载的迁移成本高到让竞争对手望而却步。
7.2 Agent时代的算力控制
2026年是AI Agent大规模落地的关键年。AWS Agent Registry的推出——一个用于集中式Agent发现和治理的基础设施——意味着Amazon正在试图成为企业AI Agent的”注册中心”和”治理平台”。(来源: AWS官方博客, 2026-04)
如果这个定位成立,Amazon就不只是在卖算力,而是在成为企业AI应用的操作系统。在这个角色中,Trainium的价值不是”更好的GPU替代品”,而是”Amazon AI操作系统的专属算力引擎”——类似于Apple Silicon之于Apple生态的关系。
Apple Silicon的成功不是因为它在所有基准测试中都打败了英特尔,而是因为它与macOS、iOS的深度集成创造了竞争对手难以复制的整体体验。Amazon正在试图在企业AI领域复制这个模式。
7.3 数据飞轮的隐性价值
当越来越多的企业AI工作负载跑在AWS上,Amazon积累的关于AI工作负载模式的数据(哪些模型架构最常用、哪些推理模式最频繁、哪些数据处理管道最典型)可以直接反哺Trainium的下一代架构设计。这个数据飞轮是Amazon相对于纯芯片厂商(英伟达、AMD)的独特优势——英伟达知道客户买了多少GPU,但不知道客户在这些GPU上跑什么;Amazon知道得多得多。
八、风险因素:这个算盘可能打不响的地方
任何分析都必须正视反面的可能性。
风险一:开源模型的去中间化威胁
Meta的Llama系列、Mistral等开源模型的快速发展,使得企业客户越来越有可能在自建基础设施上部署高质量模型,而不依赖Bedrock这样的托管平台。如果这个趋势加速,AWS的模型市场效应会被削弱,Trainium的生态锁定价值也会随之下降。
风险二:CUDA生态的护城河仍然深
英伟达的CUDA生态经过15年以上的积累,拥有海量的优化库、工具链和开发者社区。Trainium的软件生态(Neuron SDK)相比之下仍然薄弱。对于那些需要深度定制训练代码的AI研究团队来说,CUDA的生态壁垒是Trainium难以逾越的障碍。
风险三:2000亿capex的需求假设可能过于乐观
Jassy为2000亿capex辩护时援引了客户需求的可见性,但历史上大规模基础设施投资的需求预测都存在显著的过度乐观偏差。如果AI应用的商业化进程慢于预期,或者新一代更高效的模型架构大幅降低了单位算力需求,这2000亿美元的投入回报周期会被大幅拉长。
风险四:监管风险
Amazon同时作为芯片生产者、云服务提供商和AI平台运营者,这种垂直整合的商业模式在欧盟和美国的反垄断监管环境下面临越来越大的审查压力。如果监管机构要求AWS在算力定价上对Trainium和英伟达实例保持中立,Amazon的交叉补贴策略将受到严重限制。
风险五:客户多云策略的反制
越来越多的企业CIO意识到单一云厂商锁定的风险,正在积极推进多云(multi-cloud)和混合云(hybrid cloud)策略。Gartner等咨询机构持续建议企业客户避免对单一云平台的过度依赖。如果多云策略成为企业IT采购的主流范式,AWS通过生态整合推动Trainium渗透的策略将面临结构性阻力——因为客户会刻意在不同云平台之间分散工作负载,以保持议价能力和架构灵活性。在这种情况下,Trainium的价值主张必须回归到芯片本身的技术竞争力,而不能继续依赖生态锁定作为主要驱动力。
九、预判:这场芯片战争的终局不是谁赢,而是谁活下来
基于以上分析,我的判断是:
Trainium的”售罄”是真实需求和生态锁定的混合体,但生态锁定的成分在边际上更重要。
这并不是说Trainium没有技术价值,而是说Amazon的芯片战略的核心竞争优势不在于芯片本身的性能,而在于芯片与AWS生态的深度整合所创造的转换成本。这个判断基于以下逻辑链:
- Amazon没有在芯片技术上有公开的、可验证的领先于英伟达的证据
- Amazon的主要优势是生态整合(Bedrock、SageMaker、AgentCore等)
- Trainium的”售罄”在缺乏独立验证的情况下,更可能反映生态锁定效应而非纯粹的技术选择
- 但这并不意味着Trainium是失败的——生态锁定本身就是一种可持续的商业护城河
对于未来的预判:
短期(1-2年):Trainium会继续在AWS生态内扩大渗透率,主要驱动力是价格优势和生态整合,而非技术性能突破。Trainium4的推出会是一个重要的技术信号节点,需要观察其在独立基准测试中的表现。
中期(3-5年):如果Amazon成功建立了AI Agent基础设施的”操作系统”地位(通过AgentCore等产品),Trainium的战略价值会大幅提升,因为它成为了这个操作系统的专属算力引擎。这个场景下,200亿ARR的目标是保守的。
长期(5年以上):AI算力市场的格局将由模型架构的演进决定。如果未来的主流模型架构(比如更稀疏的MoE架构,或者完全不同的神经形态计算范式)与Trainium的硬件设计高度契合,Amazon可能实现真正意义上的技术领先。但这是一个高度不确定的长期赌注。
So What:对不同读者意味着什么
对企业AI决策者:在评估AWS上的AI工作负载时,需要明确区分”跑在Trainium上”和”选择了Trainium”。如果你的工作负载是通过Bedrock或SageMaker托管服务部署的,你可能在不知情的情况下已经是Trainium的用户。在做多云策略时,需要认真评估AWS AI服务的转换成本——这个成本在Agent时代会比在纯推理API时代高得多。
对芯片行业观察者:Amazon的芯片战略提供了一个重要的商业模式启示:自研芯片的竞争优势不一定来自芯片本身的技术领先,而可以来自芯片与上层服务生态的深度整合。这个模式对评估其他云厂商(Google TPU、微软Azure Maia)的自研芯片战略同样适用。
对投资者:500亿美元的芯片业务估值参考,需要在理解Amazon芯片业务收入结构(内部vs外部、硬件vs服务)的基础上才有意义。截至本文发布时,Amazon没有提供足够的细项披露来支撑独立的估值分析。这个数字更多是Jassy对资本市场的叙事管理,而非可以直接用于DCF模型的输入参数。Trading News的分析提出了一个值得关注的框架:将Amazon的芯片业务视为一个”隐藏的业务单元”,其估值应该参考独立芯片公司的市销率(P/S ratio),而非简单地将其视为AWS整体估值的一部分。(来源: Trading News, 2026) 按照这个逻辑,如果200亿ARR是真实的外部可验证收入,以半导体行业平均10-15倍的市销率计算,这个业务的独立估值确实可以达到2000-3000亿美元的量级——但前提是这200亿中的大部分来自外部客户的真实付费,而非内部转移定价。
Andy Jassy在股东信中写道,Amazon的芯片业务是”一个我们没有预料到会变得如此之大的业务”。这句话本身就是最诚实的注脚:Trainium的成功,有多少是战略设计的结果,有多少是AWS生态规模效应的意外收益,恐怕连Amazon自己也说不清楚。
而这个模糊性,正是理解Amazon芯片战略时最需要保持清醒的地方。
参考资料
-
Amazon’s chip business could be worth $50 billion, Jassy says, and he hints it may sell them externally — The Next Web, 2026
-
Not on a hunch: Andy Jassy defends Amazon’s $200B spending spree — GeekWire, 2026
-
Andy Jassy On AWS’ $244B Backlog, Trainium4 And AI Chips Strategy — CRN, 2026
-
$20B Chip Business, $142B AWS Run Rate — Is $280 Next? — Trading News, 2026
-
Best practices to run inference on Amazon SageMaker HyperPod — AWS Machine Learning Blog, 2026
-
AWS Weekly Roundup: Claude Mythos Preview in Amazon Bedrock, AWS Agent Registry, and more (April 13, 2026) — AWS Official Blog, 2026-04-13
-
[Spring AI SDK for Amazon Bedrock AgentCore is now Generally Available](https://aws.amazon.com/blogs/machine-learning/spring-ai-sdk-