2026年4月16日,Anthropic 正式发布 Claude Opus 4.7。在这个竞争对手争相宣称”史上最强模型”的行业里,Anthropic 的公告措辞却传递了一个反直觉的核心信息:这不是我们最强的模型,但这是你最应该选择的模型

Anthropic 官方博客明确写道,Claude Opus 4.7 在高级软件工程任务上较 Opus 4.6 有”显著提升”,但”比我们最强大的模型 Claude Mythos Preview 能力更弱”(”less broadly capable than our most powerful model, Claude Mythos Preview”)。(来源: Anthropic 官方博客, 2026-04-16)

CNBC 在同日报道中也确认:Opus 4.7 是一个”less risky model than Mythos”。(来源: CNBC, 2026-04-16)

这两个来自官方和权威媒体的一致定性,构成了一个在 AI 行业极为罕见的商业信号:Anthropic 同时拒绝了”卖最强”和”大规模部署高风险网安能力”两条看似理所当然的路径。

大多数人关注的是:Opus 4.7 在编程基准测试上提升了多少个百分点。但真正值得深究的是:一家手握比 Opus 4.7 更强大的 Mythos Preview 模型的公司,为什么选择发布一个”刻意降低网安能力”的版本,并在官方声明中明确承认这一事实?这背后是 Anthropic 对整个企业 AI 市场竞争规则的一次深思熟虑的重塑。


第一章:定价即宣言——官方确认的 $5/$25 与战略承诺

真实价格:官方一手数据

Anthropic 官方博客明确披露了 Opus 4.7 的完整定价信息:

“Pricing remains the same as Opus 4.6: $5 per million input tokens and $25 per million output tokens.”

(来源: Anthropic 官方博客, 2026-04-16)

即:输入 $5/百万 tokens,输出 $25/百万 tokens,与 Opus 4.6 完全相同。模型通过四个渠道可访问:Claude API(型号名 claude-opus-4-7)、Amazon Bedrock、Google Cloud Vertex AI 和 Microsoft Foundry。

同价换代:一个被低估的战略决策

在 AI 行业的定价博弈中,Anthropic 的这一选择具有独特的信号强度。历史上,OpenAI、Google 等主要竞争对手在发布新旗舰模型时,通常遵循”能力溢价”逻辑——更强的模型意味着更高的价格,或至少是重新定义的定价层级。

Anthropic 选择了不同的路径。$5/$25 的定价不是一个孤立的商业决策,而是一种关于”旗舰 AI 模型应该如何定价”的公开承诺

要理解这个承诺的战略价值,需要站在企业 AI 买家的视角:

对于正在评估 AI 供应商的企业 CTO:AI API 的成本结构直接影响到产品的经济可行性分析。如果每发布一个新旗舰版本就意味着 API 成本翻倍,企业的长期规划就必须包含大量的成本不确定性对冲。Anthropic 的同价策略直接消除了这种不确定性——你可以假设未来 12-18 个月 Opus 系列的 API 成本基本稳定

对于已在生产环境使用 Claude 的团队:升级到 Opus 4.7 没有任何财务障碍。这意味着 Anthropic 的每次模型迭代,对现有客户来说都是”免费的能力升级”。

从竞争格局看(以下为笔者分析,非官方表述):Anthropic 的定价承诺,客观上对竞争对手形成了一种无声的市场压力——要么跟进类似的定价稳定性承诺(牺牲每次迭代的弹性定价空间),要么维持溢价路线(在”成本可预测”这一维度进一步强化 Anthropic 的差异化)。无论竞争对手如何应对,Anthropic 都在这个维度占据了先手。

同价策略的财务可持续性

一个合理的质疑是:如果模型能力持续提升而价格不变,Anthropic 的单位经济模型如何维持?

Anthropic 官方博客提供了一个关键线索。Opus 4.7 具备的”devises ways to verify its own outputs before reporting back”能力,意味着在相同推理链长度下,模型产生的错误需要修正的次数更少。来自 Hex 的测试数据也印证了这一点:”low-effort Opus 4.7 is roughly equivalent to medium-effort Opus 4.6”——相同效果,消耗更少推理资源。

简言之:模型推理效率的提升,为同价策略提供了财务空间。Anthropic 不需要通过涨价来维持收益,而是通过每一轮迭代中服务相同 token 数所消耗的计算资源持续下降,来改善单位毛利。

(来源: Anthropic 官方博客, 2026-04-16)


第二章:Project Glasswing 与「主动能力降级」的深层逻辑

有意降低的网安能力

Claude Opus 4.7 最引人注目的特性之一,是 Anthropic 主动在训练中降低了其网络安全能力。官方博客的原文表述是:

“its cyber capabilities are not as advanced as those of Mythos Preview (indeed, during its training we experimented with efforts to differentially reduce these capabilities)”

这段声明有两层含义值得拆解:

第一层含义:Anthropic 承认 Mythos Preview 拥有比 Opus 4.7 更强的网安能力。这是对自身能力边界的公开声明——他们手中有更强的工具,但选择暂不大规模发布。

第二层含义:Anthropic 在 Opus 4.7 的训练过程中,实验性地”差异化降低”(differentially reduce)了网安能力。这不是能力不足,而是有意为之的技术决策。

Anthropic 进一步解释了这一决策的目的:

“We are releasing Opus 4.7 with safeguards that automatically detect and block requests that indicate prohibited or high-risk cybersecurity uses. What we learn from the real-world deployment of these safeguards will help us work towards our eventual goal of a broad release of Mythos-class models.”

(来源: Anthropic 官方博客, 2026-04-16)

Project Glasswing 的背景

这一战略的完整背景,需要结合 Anthropic 在4月初启动的 Project Glasswing。

据 CNBC 报道,Claude Mythos Preview 的发布引发了特朗普政府、科技 CEO 和银行业主管之间关于强大 AI 模型安全风险的高层会议。财政部长贝森特、美联储主席鲍威尔和多家大型银行的 CEO 都参与了相关讨论。(来源: CNBC, 2026-04-10)

Anthropic 的应对策略是两步走:

  1. 将 Mythos Preview 的发布范围严格限制,仅向特定企业合作伙伴开放
  2. 通过在 Opus 4.7 上部署自动防护机制,积累真实世界的安全数据,为未来 Mythos 系列的全量发布做准备

对于有合法网安需求的专业人士(如漏洞研究员、渗透测试人员),Anthropic 开放了专门的 Cyber Verification Program 申请通道,以”受控访问”替代”封锁访问”。(来源: Anthropic 官方博客, 2026-04-16)

「主动降级」背后的博弈逻辑

表面看:Anthropic 在发布一个比 Mythos 能力更弱的模型,这看起来像是”缩水”或”妥协”。

实质上:Anthropic 正在执行一个多步战略博弈:

步骤一:通过公开承认”Mythos Preview 已超越当前可安全发布的能力边界”,向市场传递一个信号——Anthropic 的能力储备已经领先于其当前的发布节奏。

步骤二:通过 Opus 4.7 + Project Glasswing 的组合,将”安全防护机制的构建”变成一个有时间轴、有里程碑、可被公开验证的项目,而非竞争对手那种”声称我们已经解决了安全问题”的模糊承诺。

步骤三:为未来 Mythos 系列的全量发布创造合法性基础。当 Opus 4.7 的 Project Glasswing 实验产生足够多的安全数据,Anthropic 就有了更坚实的论据来向监管机构和企业客户解释,为什么 Mythos 的全量发布是可行的。

CNBC 指出,自2021年成立以来,Anthropic 多年来精心维护着”比竞争对手更专注于安全和负责任 AI 部署”的企业声誉。(来源: CNBC, 2026-04-16) Opus 4.7 的发布方式,是这种声誉建设战略的最新章节——也可能是迄今为止最精密的一次。


第三章:能力提升的实测数据

尽管网安能力被主动降级,Opus 4.7 在核心工作能力上有明确的提升。以下数据全部来自 Anthropic 官方博客(2026-04-16):

编程与软件工程

官方定性:在高级软件工程任务上较 Opus 4.6 有”notable improvement”,特别是在”最困难的任务”上。

来自企业测试者的具体数据:

Graphite(代码审查平台):在93项编程基准测试中,Opus 4.7 较 Opus 4.6 解决率提升13%,含4项 Opus 4.6 和 Sonnet 4.6 均无法解决的任务。中位延迟更快,指令遵循更严格,对多步骤长期编程任务特别有价值。

Cursor(AI 编程工具):在内部评估中,Opus 4.7 不仅是整体能力最强的模型,还在处理真实异步工作流(自动化、CI/CD、长期任务)时表现突出。”It also thinks more deeply about problems and brings a more opinionated perspective, rather than simply agreeing with the user.”

Plaid(金融科技平台):Opus 4.7 在规划阶段主动识别逻辑错误(”catches its own logical faults during the planning phase”),加速执行,作为服务数百万消费者和企业的金融平台,”this combination of speed and precision could be game-changing”。

信息质量与抗幻觉

Hex(数据分析平台):Opus 4.7 在数据缺失时正确报告,而非提供”看起来合理但错误”的填充答案。”It correctly reports when data is missing instead of providing plausible-but-incorrect fallbacks, and it resists dissonant-data traps that even Opus 4.6 falls for.”另一个值得注意的数据点:“low-effort Opus 4.7 is roughly equivalent to medium-effort Opus 4.6”——意味着以更低的推理资源消耗,可以达到前代中等水平的输出质量。

视觉与创意能力

官方博客明确提及:

  • 视觉能力”substantially better”,支持更高分辨率(3.75MP)图像处理
  • 对专业任务(界面设计、幻灯片制作、文档生成)输出”more tasteful and creative”
  • 新增 /ultrareview 命令

Adaptive Thinking(自适应验证思考)

官方描述:”devises ways to verify its own outputs before reporting back”。这不仅是技术特性,更有实际的质量影响:在复杂多步推理任务中,Opus 4.7 的错误率更低,因为它在报告结果前会主动检验自身输出的一致性。


第四章:企业 AI 市场的新竞争维度

“安全感”正在成为产品核心差异

Opus 4.7 的发布方式,揭示了一个企业 AI 市场正在涌现的新竞争维度:可预测性与可信赖性,而非仅仅是基准测试性能。

传统的 AI 模型评估框架主要关注:

  • MMLU 等学术基准分数
  • 特定任务的胜率测试
  • 推理速度和成本

但越来越多的企业 AI 决策者——特别是金融、医疗、法律等受监管行业——在评估供应商时,开始将以下维度纳入权重:

  • 成本可预测性:供应商是否承诺定价稳定性?
  • 能力透明度:供应商是否清晰说明模型的能力边界和局限?
  • 安全治理:供应商是否有具体的、可验证的安全机制?
  • 监管对话能力:供应商是否能在监管审查中提供可信的证据?

Anthropic 的 Opus 4.7 发布,在这4个新维度上都传递了明确的信号,而 OpenAI 和 Google 在这些维度上的表现,则相对模糊。

与 OpenAI 的战略对比

同一天(2026年4月16日),OpenAI 发布了 Codex 的重大更新。CNBC 和 TechCrunch 的报道将这两件事放在同一个新闻周期中对比,而两个发布的调性形成了鲜明对比:

OpenAI Codex 更新的核心叙事:扩张——新增111个插件、内置浏览器、记忆功能、后台桌面多 Agent 操作、企业按量计费。强调”能做更多、触达更广”。

Anthropic Opus 4.7 发布的核心叙事:克制——有更强的模型(Mythos)但选择不发布,主动降低网安能力,定价与前代相同。强调”我们知道该停在哪里”。

这两种叙事代表了企业 AI 市场的两种竞争哲学。OpenAI 的路径是”先发布,边发布边建立护栏”;Anthropic 的路径是”先建立护栏,再决定发布多少”。

对于高度受监管的行业客户,后者的吸引力不言而喻。

Anthropic 的企业 AI 护城河正在成形

CNBC 同时报道了 Anthropic 伦敦办公室扩张至800名员工的消息。(来源: CNBC, 2026-04-16) 这是 Anthropic 同步进行的另一个维度的布局——欧洲市场正在经历 AI 监管的最严格落地期,一个本地化、合规透明的供应商优势将在欧洲企业采购决策中扮演重要角色。

结合 Opus 4.7 发布的安全叙事,Anthropic 的欧洲战略布局就变得清晰:在 EU AI Act 正式实施的时间节点前后,用最强的合规证明和最完整的安全机制,在欧洲企业市场建立先发优势


第五章:企业 AI 采购决策者的实操建议

对不同角色的具体影响

已使用 Claude Opus 4.6 的工程团队

  • 直接升级无成本障碍(官方确认同价 $5/$25)
  • 编程任务质量明显提升,特别是复杂多步骤工作流
  • 注意:高风险网安请求会被自动屏蔽,如有合法网安需求需走 Cyber Verification Program

正在评估企业 AI 供应商的 CTO

  • Anthropic 的安全透明度在金融、医疗、法律行业具有监管合规差异化优势
  • 同价策略使长期 AI 成本预测更可靠——建议将”供应商定价稳定性承诺”纳入采购评分体系
  • Mythos Preview 的存在,意味着 Anthropic 的能力储备超过当前发布版本,后续迭代空间清晰

负责企业 AI 风险管理的安全团队

  • Project Glasswing 实验是一个重要参考——主动的安全防护机制披露,比”事后声明已解决”的模糊承诺更有可信度
  • 对高风险业务场景的自动屏蔽机制,降低了企业侧的误用风险管理负担

关于 Anthropic 的定价策略预测

短期(6-12个月):Anthropic 大概率在 Sonnet 4.7 和未来 Haiku 版本上延续同价策略,以进一步强化”定价可预测”的市场形象。

中期(12-24个月):随着 Project Glasswing 数据积累,Mythos 系列可能开始向更多企业开放,届时 Anthropic 需要重新考量旗舰模型的定价分层。

竞争响应:OpenAI 可能被迫跟进部分同价策略,这将对整个企业 AI 市场的 API 定价产生压缩效应——对企业采购者是好消息。


第六章:Anthropic 的安全叙事——从差异化定位到行业标准制定者

「负责任 AI」从口号变成竞争资产

在 AI 行业发展的早期阶段(2020-2023年),”负责任 AI”主要是一个公关概念。大多数 AI 实验室在官网显著位置展示”安全承诺”,但这些承诺很少体现在产品的实际决策中。发布最强模型、争夺基准测试榜首,才是行业评价体系的主导逻辑。

2026年的格局正在发生根本性转变。Anthropic 用 Opus 4.7 的发布证明了一件事:“负责任 AI”不再只是公关材料,而是可以转化为商业竞争资产的战略承诺

这种转化发生的背景是多方力量的合流:

监管压力:EU AI Act 的落地执行正在迫使企业 AI 采购决策中引入合规维度。美国政府对强大 AI 模型的安全风险也高度关注——Anthropic 的 Mythos Preview 已经触发了特朗普政府与科技 CEO 和银行主管之间的高层安全讨论。(来源: CNBC, 2026-04-10)

企业客户成熟度:早期 AI 采购决策主要由技术团队主导,评估维度以”能不能做到”为核心。随着 AI 深入到业务关键流程,CFO、法律团队和风险管理部门开始参与 AI 采购决策,”风险和合规”维度的权重显著提升。

事故的教育效应:过去18个月中,多起 AI 系统在关键场景下的失误事件,让企业 AI 采购者更加警惕”发布速度>安全验证”的供应商模式。

在这个背景下,Anthropic 的 Project Glasswing + Opus 4.7 组合,可以被解读为一种市场教育行动:向整个行业展示”有更强的能力,但选择按阶段、按验证进度发布”的可行路径。

从差异化定位到行业标准制定者的路径

Anthropic 当前的战略意图,可能不仅仅是”与 OpenAI 和 Google 在企业市场竞争”。从更长远的视角看,Anthropic 可能在试图做一件更有野心的事:成为企业 AI 安全发布标准的制定者

具体路径可能是:

  1. 通过连续的、有时间轴的安全实验(如 Project Glasswing),积累可被引用的实战数据
  2. 将这些数据贡献给监管机构的标准制定过程(Anthropic 的高管已多次在国会作证)
  3. 推动”分阶段发布”成为监管框架要求,而非供应商的自愿选择
  4. 一旦这种标准被采纳,Anthropic 已有的 Project Glasswing 实践,就自然成为合规资质的证明

如果这个路径成立,Anthropic 的每次”克制的发布”,都不仅是一次商业决策,更是在主动构建一套游戏规则——而这套规则,最终将对所有竞争对手都构成约束,唯独对 Anthropic 自身的合规成本最低。

Power User 的反弹:不可回避的代价

任何战略都有代价。Anthropic 的能力降级策略,不可避免地在技术极客和独立安全研究者群体中引发摩擦。

这种摩擦的逻辑是可预见的:Anthropic 官方博客明确说明 Opus 4.7 的网安能力”不如 Mythos Preview 先进”(”not as advanced as those of Mythos Preview”),并会自动屏蔽”高风险网安请求”。对于从事漏洞研究、渗透测试等合法网安工作的研究人员来说,这种自动屏蔽机制可能造成实际的工作障碍。(来源: Anthropic 官方博客, 2026-04-16)

Anthropic 的应对是开放 Cyber Verification Program——但这也意味着引入了一套新的准入门槛,对于规模较小的安全研究团队或独立研究者,验证程序本身就可能构成壁垒。

这是 Anthropic 策略的固有张力:以企业和监管机构为核心定位,会不可避免地在技术极客和安全研究社区中产生摩擦。OpenAI 在某些时期也面临类似的抱怨,但更积极地向开发者社区靠拢(如更开放的 API 政策、更快的功能迭代)。Anthropic 的选择更偏向于”维持安全叙事的一致性”,即使这意味着接受一部分高端用户的流失——这是一个清醒的选择,而非疏忽。

竞争对手的潜在反应

面对 Anthropic 的策略,OpenAI 和 Google 可能的响应方向:

OpenAI 的可能选择:继续强化”能力最强”的叙事,并在企业销售层面加强对”安全治理”议题的覆盖,但不太可能改变快速迭代+同步发布的基本节奏。OpenAI 对功能扩张的承诺(如 Codex 的111个插件更新)与 Anthropic 的路径存在根本性差异。

Google 的可能选择:Google 在安全治理领域已有深厚积累(DeepMind 的可解释性研究、谷歌内部的 AI 安全团队),可能尝试用类似框架来强化企业市场定位,但 Google 的组织复杂度和多线产品战略,使其难以像 Anthropic 那样形成清晰的单一叙事。

行业整体影响:如果 Anthropic 的策略在企业采购中取得可见的成功,将对整个行业产生模仿效应。”分阶段发布+主动安全验证”可能从 Anthropic 的差异化策略,演变成企业 AI 供应商的标配实践。


第七章:中国 AI 市场的启示与差异

不同的监管压力,类似的商业逻辑

Claude Opus 4.7 的发布模式,对中国 AI 市场的从业者同样有参考价值,尽管监管环境存在根本差异。

中国 AI 监管框架(国家互联网信息办公室发布的多项生成式 AI 服务管理规定)虽然与 EU AI Act 在细节上不同,但都在推动 AI 供应商在发布高能力模型时承担更多安全验证责任。国内头部 AI 实验室(百度、阿里、腾讯、智谱、月之暗面等)都在探索如何在技术竞争和合规要求之间找到平衡。

Anthropic 的 Project Glasswing 模式提供了一个可供参考的框架:将安全验证过程公开化、有时间轴化,而非声称”一次性解决了所有安全问题”。这种透明度,在监管日益收紧的环境中,可能比技术性能的边际改进更有市场价值。

对中国企业 AI 采购者的参考

对于正在评估国际 AI 供应商(包括 Anthropic)的中国企业:

数据主权和安全审查:Claude Opus 4.7 目前通过 Amazon Bedrock、Google Cloud Vertex AI 等渠道提供服务,这意味着数据处理受制于这些云平台的数据主权框架,需在采购评估中纳入考量。

能力获取路径:Anthropic 的 Cyber Verification Program 意味着高级网安能力受到访问限制,可能对有相关需求的中国企业构成额外的准入障碍。

参考价值:Anthropic 的”克制定价+分阶段发布”策略,对国内 AI 供应商在企业市场的竞争策略制定,具有借鉴意义——尤其是在面向高度受监管行业(金融、医疗)时,”安全透明度”可能是比”最强能力”更有效的市场切入点。


结语:当「不做什么」成为最有力的产品声明

Anthropic 用 Claude Opus 4.7 的发布,向整个 AI 行业演示了一种反常识的竞争逻辑:在企业 AI 市场,”克制”可以是比”最强”更有说服力的竞争优势

官方确认的 $5/$25 同价承诺、对 Mythos 超级能力的主动压制、Project Glasswing 的公开安全实验——这3个决策共同构成了一个完整的战略叙事。它们不是孤立的产品决策,而是 Anthropic 对”企业 AI 市场的核心竞争维度正在从技术领先转向信任领先”这一判断的响应。

多数人会关注 Opus 4.7 在编程基准上提升了13%的解决率,或者视觉能力提升到了3.75MP分辨率支持。但最值得关注的是:Anthropic 是目前唯一一家,将”主动不发布最强能力”作为公开产品战略的顶级 AI 实验室

这种克制,短期内可能让 Anthropic 在某些能力对比测试中落后。但从企业级采购的12-24个月决策周期来看,它正在构建的,是竞争对手很难用技术突破来快速复制的护城河:被监管机构、银行、医疗机构和法律团队真正信任的 AI 供应商资质


参考资料

  1. Anthropic 官方博客:Claude Opus 4.7 发布公告 — https://www.anthropic.com/news/claude-opus-4-7 (2026-04-16)
  2. CNBC:Anthropic rolls out Claude Opus 4.7, an AI model that is less risky than Mythos — https://www.cnbc.com/2026/04/16/anthropic-claude-opus-4-7-model-mythos.html (2026-04-16)
  3. Anthropic 官方:Project Glasswing 安全框架 — https://www.anthropic.com/glasswing (2026-04-10)
  4. CNBC:Trump White House AI cyber threat meetings — https://www.cnbc.com/2026/04/10/trump-white-house-ai-cyber-threat-anthropic-mythos.html (2026-04-10)
  5. CNBC:Anthropic London office expansion to 800 staff — https://www.cnbc.com/2026/04/16/anthropic-london-office-800-staff-openai-expansion.html (2026-04-16)