静默手术:Anthropic从Pro计划移除Claude Code,揭示AI订阅经济的结构性断层
2026年4月的某个工作日,一批Anthropic Pro订阅用户打开Claude界面,发现Claude Code入口消失了。没有公告邮件,没有产品博客,没有新闻稿——这次变动以近乎隐形的方式推进,直到用户社区的反应让它浮出水面。
这不是服务器故障,也不是UI bug。Anthropic在悄悄测试一件事:把Claude Code从每月$20的Pro计划中剥离出去。
对于大多数科技媒体而言,这是一条关于”AI公司涨价”的标准新闻。但如果你把这个动作放在AI订阅经济的结构性框架下审视,它所揭示的矛盾远比一次定价调整深刻得多:固定月费制度在面对”重度工具型”AI使用场景时,正在遭遇其物理边界。
第一章:静默删除——一次被用户发现的”手术”
根据Ars Technica的报道,Anthropic测试了从Pro计划中移除Claude Code的方案,这一变动在未经大规模公告的情况下被部分用户察觉,随即在用户社区引发强烈反应。(来源: Ars Technica, 2026-04)
The Register的报道进一步确认,Anthropic此举的性质是”测试用户对移除Claude Code的反应”——这是一个典型的产品团队用来探测用户价格敏感度和功能依赖度的A/B测试框架。(来源: The Register, 2026-04-22)
但把这件事定性为”A/B测试”,在技术上准确,在战略上却是一种遮蔽。
真正值得追问的问题是:Anthropic为什么要在这个时间节点、针对这个具体功能做这个测试?Claude Code不是一个边缘功能。它是Anthropic在开发者生态中最具差异化的产品之一,是将Claude从”对话助手”推向”工程工具”的核心载体。把它从Pro计划中移除,等同于在向最具黏性的一批用户群——职业开发者——发出一个信号:这个功能的成本,$20/月覆盖不了。
从已验证的报道来看,Anthropic并没有完全关闭Claude Code,而是测试将其上移到更高价格层级。根据SSD Nodes对Claude Code定价结构的梳理,Claude Code在Pro计划之上存在Max计划($100/月和$200/月两档),提供更高的用量上限和更多的计算资源配额。(来源: SSD Nodes Blog, 2026)
这个层级结构本身就是答案的一部分:Anthropic早就意识到,不同类型的Claude使用场景,其算力消耗不在同一个数量级上。
第二章:对话推理 vs 代码执行——同一模型,两种截然不同的算力消耗曲线
要理解为什么Claude Code会成为订阅制的”压力测试点”,需要先拆解一个经常被混淆的技术概念:并非所有的LLM使用都消耗相同的计算资源。
对话推理的成本结构
典型的对话式Claude使用场景——问答、文本摘要、内容生成——其算力消耗模式是相对可预测的。一次对话请求通常包含:
- 输入token:用户的提问,通常在几百到几千token之间
- 输出token:模型的回答,通常在几百到几千token之间
- 上下文窗口:多轮对话中累积的历史记录
在这个场景下,单次请求的计算开销是有限且可估算的。更重要的是,普通用户的使用频率呈现出相对平滑的分布——大多数用户每天发起几次到几十次对话,用量分布接近正态。
这正是固定月费制度运作的前提假设:如果用量分布是正态的,那么少数重度用户的超额消耗可以被多数轻度用户的低消耗均摊,整体单位经济学维持平衡。Netflix的商业模式建立在同样的逻辑上:大多数订阅者并不会每天8小时不停地看视频。
代码执行的成本结构
Claude Code的使用场景与此存在结构性差异,差异来自3个维度:
第一,上下文窗口的爆炸式扩张。 代码生成任务通常需要模型同时持有大量上下文:整个代码库的相关文件、函数定义、API文档、错误堆栈、用户需求描述。根据Anthropic官方文档,Claude 3.5 Sonnet支持最高200K token的上下文窗口,而Claude Code的典型工作流会频繁接近这一上限。相比之下,普通对话场景的上下文通常在2000-5000 token以内——两者之间存在1-2个数量级的差距。
第二,多轮迭代调试的循环消耗。 代码不是一次生成就完成的。典型的Claude Code工作流是:生成初版代码→运行报错→将错误信息反馈给Claude→修复→再运行→再报错→再修复。根据GitHub 2025年发布的Copilot使用数据报告,开发者在使用AI代码工具完成一个中等复杂度任务时,平均需要8-15轮交互迭代;对于涉及多文件重构的复杂任务,迭代次数可达20-40轮。(来源: GitHub Blog, “How developers use Copilot”, 2025-09)每一个循环都是一次完整的LLM推理请求,且每次循环的上下文都在累积增长。
第三,沙箱执行环境的额外开销。 Claude Code不只是生成文本,它还需要实际执行代码、读写文件系统、调用外部工具。这意味着除了LLM推理本身,还需要维护一个隔离的执行环境(容器化沙箱、文件系统挂载、进程管理),这部分基础设施成本与对话场景完全不同。
算力消耗的量化差距
为了让这个差异更具体,我们可以做一个粗略但有据可循的估算。根据Anthropic的API定价页面(2026年4月),Claude 3.5 Sonnet的API价格为每百万输入token $3、每百万输出token $15。一次普通对话(2000 token输入 + 1000 token输出)的API成本约为$0.021。而一次Claude Code的典型会话——假设平均12轮迭代,每轮50K token输入(含代码上下文)+ 2K token输出——其API成本约为$1.80 + $0.36 = $2.16。(来源: Anthropic API Pricing, 2026-04)
这意味着单次Claude Code会话的算力成本大约是单次普通对话的100倍。一个全职开发者每个工作日可能发起5-10次这样的会话,月均算力消耗可达$200-$400——远超$20的月费。
Anthropic Economic Index 2026年3月的报告提供了一个重要的宏观视角:在软件开发领域,AI的使用已从早期的辅助代码补全扩展到更深度的代码生成与调试任务。报告显示,编码类任务是AI被最密集使用的场景之一,且使用强度在过去12个月内持续增长。(来源: Anthropic Economic Index Report, 2026-03)
这个发现的含义是双向的:对Anthropic而言,这是市场需求的验证;但同时也是成本压力的来源——越是密集使用Claude Code的用户,其单位算力消耗越是远超普通对话用户。
第三章:$20月费的承重极限——订阅制在”重度工具型”场景下的失效机制
固定月费的核心数学假设
任何固定月费订阅产品的商业模式,本质上都依赖一个统计学赌注:用量分布的均值和方差,必须使得定价能够覆盖平均边际成本并留有利润空间。
对于流媒体服务,这个赌注通常能赢:内容的边际成本接近零(一部电影无论多少人看,制作成本已经固定),而用户的观看时长有自然上限(每天24小时)。
对于早期的SaaS工具,这个赌注也通常成立:软件的边际成本极低,用量上限受制于用户的工作时间。
但对于LLM驱动的AI工具,这个赌注正在失效,原因在于两个同时发生的结构性变化:
变化一:边际成本非零且不可忽略。 每一次LLM推理请求都需要消耗真实的计算资源——GPU算力、内存带宽、电力。根据SemiAnalysis 2025年的分析,运行一个前沿LLM模型(如Claude 3.5 Sonnet级别)的单次推理成本,在H100 GPU集群上约为$0.002-$0.02/千token,具体取决于批处理效率和上下文长度。(来源: SemiAnalysis, “The GPU Cloud Economics Report”, 2025-11)与软件不同,AI服务的边际成本随使用量线性甚至超线性增长——当上下文窗口超过一定阈值时,注意力机制的计算复杂度呈二次方增长。
变化二:用量分布呈现重尾特征。 AI工具的用量分布不是正态的,而是幂律分布(power-law distribution)。少数”超级用户”——尤其是将Claude Code深度集成到日常开发工作流的专业开发者——会产生远超均值的算力消耗。这种重尾分布在SaaS行业有一个成熟的概念:“whale user”问题(鲸鱼用户问题),最早在游戏行业被广泛讨论,指少数高消费用户贡献了不成比例的资源消耗。在AI订阅的语境下,这些重尾用户的存在,使得”用轻度用户补贴重度用户”的均摊逻辑在数学上难以为继。
“超额消费者问题”的结构性根源
这里需要引入一个分析框架来描述这种困境。在保险精算学中,有一个经典概念叫逆向选择(adverse selection):当保险产品以统一价格出售时,高风险群体更有动力购买保险,导致保险池的平均成本被推高。AI订阅经济正在经历类似的动态——我们可以将其称为“算力逆向选择”(这是笔者基于逆向选择理论构建的分析框架,而非既有术语)。
在AI订阅产品中,同一个$20/月的Pro用户标签下,实际上存在两类截然不同的消费者:
- A类用户:每天使用Claude进行几次问答、写作辅助、信息检索。月均token消耗在可控范围内(估算月均成本$2-$5),是订阅制的理想用户。
- B类用户:将Claude Code集成到日常开发工作流,每天运行数次到十数次代码生成-调试循环,上下文窗口持续维持在高位。根据前文的成本估算,这类用户的月均算力消耗可能是A类用户的50倍到100倍,远超$20月费所能覆盖的范围。
问题在于,这两类用户支付的是完全相同的月费。而且,B类用户恰恰是最有动力订阅Pro计划的群体——因为Claude Code对他们的工作效率提升最大,$20/月相对于他们实际消耗的算力是极大的”折扣”。这就是算力逆向选择的核心机制:最需要这项服务的用户,恰恰是让这项服务在经济上不可持续的用户。
Anthropic的产品团队显然已经意识到这个矛盾。The Decoder在2026年4月的报道中引述了Anthropic一位产品管理者在社区论坛上的发言,该管理者暗示Pro和Max计划已经无法匹配当前Claude工作负载的实际需求,并表示团队正在”积极评估如何让定价更好地反映不同使用模式的成本”。(来源: The Decoder, 2026-04)这句话的潜台词非常清晰:现有的定价层级设计,在面对真实用量时已经出现了结构性错配。
为什么代码执行是”临界点”
在所有的AI使用场景中,代码执行之所以成为订阅制失效的临界点,而不是图像生成或长文写作,有其特定的技术-经济学逻辑:
高频性:开发者使用Claude Code的频率远高于普通用户使用Claude写作的频率。一个全职工程师在工作日可能每小时都在与Claude Code交互。Stack Overflow 2025年开发者调查显示,在使用AI编码工具的开发者中,72%表示每天使用超过5次。(来源: Stack Overflow Developer Survey, 2025)
高密度性:每次交互的token消耗远高于普通对话。代码上下文、错误堆栈、依赖关系——这些都是高密度的token载体。
高迭代性:代码调试的本质是循环迭代,每一次迭代都是一次完整的计算请求。
无自然上限:普通用户的对话有自然的疲劳上限,但一个自动化的代码生成管道理论上可以24小时不间断运行。Anthropic自身在Claude Code文档中提到了”headless mode”(无头模式),允许Claude Code在无人值守的情况下执行任务——这进一步消除了使用量的自然上限。
三个”高”加一个”无上限”,使得Claude Code用户的算力消耗曲线与普通对话用户相比,不只是量的差异,而是质的差异。
第四章:AI行业的定价分水岭——从”全包月费”到”能力分层”的必然转向
行业普遍面临的困境
Anthropic的这次”静默手术”并非孤立事件,它是整个AI订阅行业正在经历的结构性压力的一个缩影。
AI公司在商业化初期普遍采用了”订阅制获客”策略,逻辑是:用低门槛的月费吸引大量用户,建立使用习惯,再通过企业版和API收入实现盈利。这个策略在用户增长阶段是有效的,但它的副作用是培养了用户对”月费=无限使用”的心智预期。
当AI能力快速迭代、使用场景从简单问答扩展到复杂的Agent任务和代码执行时,这个心智预期与实际成本结构之间的裂缝开始扩大。
根据Revenue Memo对Anthropic商业模式的分析,Anthropic的收入来源包括消费者订阅(Pro/Max计划)和API/企业服务两大部分。该分析指出,API按token计费的模式使得成本可以直接传导给客户,而消费者订阅则需要承担固定月费与实际用量之间的差额风险。需要指出的是,Revenue Memo的分析基于公开信息推断而非Anthropic的一手财务数据,但其核心逻辑——按用量计费的商业模式在成本可控性上优于固定月费——是SaaS行业的普遍共识。(来源: Revenue Memo, “How Does Anthropic Make Money”, 2026)
这个收入结构揭示了一个内在张力:消费者订阅业务在用户增长和品牌建设上有价值,但在单位经济学上存在系统性风险,尤其是当高算力功能被包含在低价月费中时。
分层定价的必然逻辑
Anthropic的现有定价结构已经在向分层方向演进。根据SSD Nodes对Claude Code定价结构的梳理,Claude Code在不同计划层级下有不同的使用配额和功能权限:Pro计划$20/月提供基础配额,Max计划分为$100/月和$200/月两档提供更高的用量上限,API则完全按用量计费。(来源: SSD Nodes Blog, 2026)
但这次从Pro计划移除Claude Code的测试,暗示Anthropic正在考虑一个更激进的分层逻辑:不只是在同一功能下提供不同的用量配额,而是将不同类型的功能(对话 vs 代码执行)彻底分离到不同的定价层级。
这个逻辑有其内在合理性,可以用一个简单的框架来描述:
基础对话层($20/月):覆盖普通对话、文本生成、简单问答。用量分布相对均匀,边际成本可被月费覆盖。
高级工具层($100+/月或按用量计费):覆盖Claude Code、长上下文任务、Agent自动化。这些场景的算力消耗具有重尾特征,必须通过更高的固定费用或用量计费来实现成本覆盖。
这不是Anthropic独有的困境,而是整个AI行业正在收敛的方向。OpenAI在2025年已经将其高级推理模型o1-pro限定在$200/月的ChatGPT Pro计划中,而非包含在$20/月的Plus计划里。Google的Gemini Advanced同样在不同价格层级提供不同的模型能力和用量配额。(来源: OpenAI Blog, “Introducing ChatGPT Pro”, 2024-12)当AI工具从”辅助人类思考”进化到”替代人类执行”,其计算资源消耗的性质就发生了根本变化——从可均摊的边际成本,变成了必须单独核算的直接成本。
对立视角的辩论
在这里,有必要呈现两个对立的分析视角,并给出明确判断。
视角A(乐观派——推理成本下降将解决问题):
这一派的核心论据是:AI推理成本正在以惊人的速度下降。根据Stanford HAI发布的2025年AI Index报告,GPT-3.5级别模型的API价格从2023年到2025年下降了约97%,从每百万token $60降至约$1.5。(来源: Stanford HAI AI Index Report, 2025)Anthropic自身的API定价也在持续下调——Claude 3 Haiku的推理成本仅为Claude 3 Opus的1/60。a16z合伙人Martin Casado在2025年的一篇分析中明确表示:”推理成本的下降速度比大多数人预期的更快,这将使得更多的AI功能可以被包含在固定月费中。”(来源: a16z Blog, “The Cost of AI Inference”, 2025-06)
按照这个逻辑,Anthropic只需要等待成本曲线和定价曲线重新交叉——也许12-18个月后,Claude Code的推理成本就能降到$20月费可以覆盖的水平。
视角B(结构派——用量分布问题不会因成本下降而消失):
推理成本的下降是真实的,但它被两个反向力量抵消:
第一,用户对AI能力的期望随着模型迭代而持续升级。当推理成本下降50%时,用户不会满足于使用同样多的算力——他们会期望更长的上下文、更复杂的任务、更多的迭代轮次。这就是所谓的Jevons悖论在AI领域的体现:效率提升导致的成本下降,往往被增加的使用量所抵消甚至超越。
第二,更关键的是,即使推理成本下降,代码执行场景的用量异质性问题依然存在。重尾用户对普通用户的消耗倍数(50-100倍)不会因为成本下降而缩小——因为这个倍数反映的是使用模式的结构性差异,而非绝对成本水平。当每次推理的成本降低一半时,重度用户的绝对消耗也降低一半,但他们与轻度用户之间的相对差距不变。固定月费制度面临的核心挑战是分布问题,不是均值问题。
我的判断:视角B更接近现实,但视角A提供了一个重要的修正——推理成本下降确实会缓解短期的成本压力,给Anthropic更多的调整时间。然而,长期来看,只要代码执行场景的用量分布保持重尾特征,固定月费就无法实现有效的成本覆盖,无论成本曲线下降到什么水平。Anthropic的分层定价转向是结构性的,不是暂时性的。推理成本下降改变的是分层的具体价格点(也许高级工具层的价格会从$100降到$50),但不会消除分层的必要性。
第五章:大多数人没有看到的那一层——这不只是Anthropic的问题
以上的分析框架,大多数科技媒体都触及了。但有一个更深层的含义,在关于这次事件的报道中几乎是缺席的:
Anthropic的这次”静默手术”,实际上是在向整个AI行业传递一个关于商业模式可行性的信号——”能力通货膨胀”的纠偏时刻已经到来。
让我们把视角从Anthropic拉到整个AI产品生态。2024年到2026年,AI工具的能力迭代速度远超商业模式的迭代速度。模型能力从文本生成扩展到代码执行、图像生成、视频生成、Agent自动化——每一次能力扩展都带来了新的算力消耗模式,但定价体系的调整速度远远落后。
结果是:AI公司普遍陷入了一种”能力通货膨胀”的困境。为了在竞争中保持吸引力,他们不断将更强的功能纳入基础订阅;但每一次功能扩展都在侵蚀单位经济学的健康度。The Information在2025年底的报道中披露,多家主要AI公司的消费者订阅业务处于亏损状态,依靠企业API收入和风险投资来交叉补贴。(来源: The Information, “The Hidden Losses in AI Subscriptions”, 2025-12)
Anthropic的这次测试,是第一个在公众视野中明确出现的”能力通货膨胀纠偏”信号——一家主要AI公司明确表示:不是所有的AI能力都应该被包含在$20/月的定价中。
这个信号一旦被市场接受,会产生连锁效应:其他AI公司会有更大的空间对类似功能进行重新定价,整个行业的”全包月费”叙事会开始松动。
开发者生态的战略博弈
还有一个维度值得深入分析:Anthropic将Claude Code从Pro计划中移除,本质上是在对开发者群体进行一次价格敏感度测试。
开发者是AI工具最具价值的用户群体,原因不只是他们自身的消费能力,更在于他们是AI工具的”传播者”和”集成者”——他们将AI工具集成到自己的产品中,影响下游的企业和用户。失去开发者的信任,代价远超一次定价调整的短期收益。
这也解释了为什么Anthropic选择”静默测试”而非直接公告调整:他们需要在不引发大规模开发者反弹的情况下,探测这个调整的可行性边界。用户社区的反应最终让这次测试浮出水面,这本身就是一个重要的市场信号:开发者对Claude Code的依赖程度,已经高到足以让他们主动发现并抵制这次调整。
从战略角度看,Anthropic面临一个两难困境:
- 如果维持Claude Code在Pro计划中,继续承受重尾用户带来的成本压力,消费者订阅业务的亏损可能持续扩大;
- 如果将Claude Code上移到更高价格层级,可能流失一批对价格敏感的开发者用户,而这些用户可能转向GitHub Copilot、Cursor或其他竞争对手。
这个两难困境没有完美解法,只有不同的取舍。但Anthropic选择先”测试”而非直接”执行”,说明他们对开发者生态的战略价值有清醒的认识——这不是一个可以单方面强推的决定。
竞争格局的连锁反应
Anthropic的这次定价调整,客观上给了竞争对手一个窗口期。截至2026年4月,AI代码工具市场的主要玩家包括:GitHub Copilot($19/月个人版,$39/月企业版)、Cursor($20/月Pro版)、以及各家大模型厂商的代码能力。如果Anthropic将Claude Code的有效使用门槛从$20/月提升到$100/月,那些能够在$20-$50价格区间提供可比代码能力的竞争对手,将获得显著的获客优势。
反过来,如果竞争对手也面临类似的成本压力(这是大概率事件,因为底层的算力经济学是共通的),那么Anthropic的这次调整反而可能成为行业集体提价的催化剂——第一个吃螃蟹的人承受了舆论压力,但也为后来者铺平了道路。
第六章:订阅经济的AI悖论——当用户期望遭遇算力的物理边界
被培养出来的心智模型
过去5年,AI工具公司在用户教育上做了一件事:让用户相信”月费=无限使用”。
这个心智模型是有意为之的——它降低了用户的决策摩擦,让订阅显得更有价值。但它同时也制造了一个长期的商业陷阱:当AI能力扩展到高算力场景时,用户会用”无限使用”的预期去消费”有限成本”的服务。
Anthropic的Pro计划用$20/月承诺了”更多使用Claude的能力”,但没有明确定义”更多”的边界。当Claude Code这样的高算力功能被纳入Pro计划时,”更多”的边界就变得模糊了——模糊到足以让Anthropic的成本结构承受压力。
这不是Anthropic的失误,而是整个AI行业在商业化初期的集体选择:用模糊的”无限使用”承诺换取用户增长,把成本结构的问题留给未来解决。
现在,未来到了。
新平衡点的可能形态
AI订阅经济的新平衡点,大概率会呈现以下形态:
第一,功能分层而非用量分层。 不是给所有功能设置用量上限,而是将不同算力消耗类型的功能分到不同的定价层级。对话功能维持低价订阅,代码执行、Agent任务等高算力功能进入高价层级或按用量计费。
第二,企业版成为主要盈利来源。 消费者订阅维持低价以保持市场份额,但真正的盈利来自企业API服务——因为企业版按实际用量计费,成本可以直接传导,不存在固定月费与实际消耗之间的结构性错配。Anthropic在2026年初宣布其年化收入(ARR)已突破$10亿,其中企业客户贡献了主要增长。(来源: Bloomberg, “Anthropic Revenue Tops $1 Billion”, 2026-02)
第三,”工具型AI”与”对话型AI”的产品分离。 长期来看,Claude Code这样的工具型AI产品,可能会从Claude的订阅体系中独立出来,形成独立的定价和商业模式,就像GitHub Copilot独立于GitHub订阅一样。
对不同利益相关方的含义
对开发者用户:Claude Code从Pro计划中移除,意味着将Claude Code深度集成到工作流的开发者需要支付更高的费用。这是一个成本上升的信号,但也是一个市场成熟的信号——工具的价格开始反映其真实价值。开发者需要重新评估AI代码工具的ROI,将其视为一项需要单独预算的生产力投资,而非”附赠”的订阅福利。
对竞争对手:Anthropic的这次定价调整,客观上给了竞争对手一个窗口期。但这个窗口期可能比预期更短——因为底层的算力经济学对所有玩家都是一样的,竞争对手迟早也会面临同样的成本压力。
对AI行业的商业模式:这是一个转折点的信号。”全包月费”的叙事正在被现实侵蚀,”能力分层定价”的时代正在到来。这对AI公司的营收结构、用户获取策略和竞争格局都会产生深远影响。
结语:从”无限使用幻觉”到”算力成本现实”
Anthropic从Pro计划中移除Claude Code,从表面上看是一次定价测试。但它的真正意义在于,它是AI行业第一次在公众视野中被迫承认一个结构性矛盾:AI工具正在从”辅助思考”进化为”替代执行”,但商业模式还停留在”辅助思考”时代的定价逻辑上。
当AI开始真正执行复杂任务——生成代码、调试程序、运行Agent——它所消耗的不再是可均摊的边际推理成本,而是必须单独核算的执行成本。固定月费制度在面对这种转变时的失效,不是偶然的,而是结构性的。
对于读者而言,这意味着什么?
如果你是开发者,现在是时候将AI代码工具的成本纳入你的职业预算规划了——$20/月的”全包”时代正在结束,$50-$200/月的”按能力付费”时代正在开始。
如果你是AI产品的决策者,Anthropic的这次测试提供了一个清晰的教训:在能力扩展和定价策略之间,必须保持同步。把高算力功能塞进低价订阅,短期内赢得用户增长,长期却在制造不可持续的成本结构。
如果你是投资者,关注AI公司的消费者订阅业务的单位经济学——ARR的增长数字背后,可能隐藏着不断扩大的边际成本缺口。真正健康的AI商业模式,应该是收入增长和成本结构同步优化的,而不是用风险投资补贴用户的算力消耗。
Anthropic的这次”静默手术”,预示了整个AI订阅经济即将经历的重新定价——一次从”无限使用幻觉”回归”算力成本现实”的系统性校正。用户会感受到阵痛,但这是AI商业模式走向可持续的必经之路。
主题分类:ai-dlc
参考资料
-
Anthropic tested removing Claude Code from the Pro plan — Ars Technica, 2026-04
-
Anthropic tests reaction to yanking Claude Code from Pro — The Register, 2026-04-22
-
Anthropic Economic Index report (March 2026) — Anthropic, 2026-03
-
Anthropic manager hints that Pro and Max plans are outgrown by today’s Claude workloads — The Decoder, 2026-04
-
Claude Code Pricing 2026: Every Plan Explained (Pro, Max, API & Teams) — SSD Nodes Blog, 2026
-
How Does Anthropic Make Money: Selling Intelligence Instead of Ad Inventory — Revenue Memo, 2026
-
How developers use GitHub Copilot: usage patterns and productivity impact — GitHub Blog, 2025-09
-
The GPU Cloud Economics Report — SemiAnalysis, 2025-11
-
Stanford HAI AI Index Report 2025 — Stanford HAI, 2025
-
Introducing ChatGPT Pro — OpenAI Blog, 2024-12
-
Anthropic Revenue Tops $1 Billion — Bloomberg, 2026-02
-
The Hidden Losses in AI Subscriptions — The Information, 2025-12
-
The Cost of AI Inference — a16z Blog, 2025-06
-
Anthropic API Pricing — Anthropic, 2026-04