2026年4月8日,Anthropic 做了一件AI行业从未有过的事:公开承认自己训练出了一个能力极强的模型——Claude Mythos,然后宣布不对外发布。理由是该模型在内部红队测试中展现出的社会操纵与零日漏洞发现能力超过了公司自设的安全阈值 (来源: Forbes, 2026-04-08)。

这不是一次产品延期,不是技术故障导致的推迟上线,而是一家年化收入已突破$30B的AI公司 (来源: CNBC, 2026-04-13),在没有任何政府机构要求、没有任何法律框架约束的情况下,自行决定一项技术「太危险了,不能让公众使用」。

然后,Anthropic 转身做了第2件事:发布了 Project Glasswing,联合 AWS、Apple、Google、Microsoft 等巨头,让 Claude Mythos Preview 在受控环境下专门用于保护关键软件基础设施安全 (来源: Anthropic, 2026-04)。

一个模型,两种命运——对公众「太危险」,对巨头联盟「恰好有用」。这个决策的治理逻辑,才是真正值得深度拆解的问题。


1. 事实重建:Anthropic 到底做了什么决定?

先把事件链条理清楚。

Claude Mythos 是 Anthropic 在2026年Q1完成训练的前沿模型。根据 InfoQ 的报道,该模型在内部评估中展现出自主发现零日漏洞的能力——不是辅助安全研究员发现漏洞,而是模型本身能够独立识别、分析并构造针对未知软件缺陷的攻击路径 (来源: InfoQ, 2026-04)。与此同时,Mythos 在社会操纵相关的基准测试中得分超过了 Anthropic 自设的 Responsible Scaling Policy (RSP) 中定义的阈值。

Anthropic 的决策分为3个层次:

第1层:不公开发布。 Claude Mythos 不会以 API 或消费级产品的形式向公众开放。Forbes 的报道标题直截了当:「What Is Claude Mythos—And Why Anthropic Won’t Let Anyone Use It」(来源: Forbes, 2026-04-08)。

第2层:有限受控部署。 通过 Project Glasswing,Mythos Preview 被部署在由 Anthropic 与合作方共同管控的环境中,专门用于发现和修补关键软件基础设施中的安全漏洞 (来源: Anthropic, 2026-04)。合作方包括 AWS、Apple、Google、Microsoft——基本上是全球科技基础设施的核心玩家。

第3层:通过 AWS Bedrock 提供受限预览。 AWS 在其 Agent Registry 预览版发布的同期,宣布 Claude Mythos Preview 可在 Amazon Bedrock 上获取,但受到集中式治理框架的约束 (来源: AWS, 2026-04-13)。AWS Agent Registry 本身就是一个集中式 AI Agent 发现与治理工具,其发布时间与 Mythos 的受控部署高度吻合,这不是巧合。

这3层决策构成了一个完整的治理架构:公众被排除在外,巨头获得准入,准入条件由 Anthropic 和云服务商共同定义。


2. 核心问题:谁赋予了 Anthropic 这个权力?

让我们把问题说得更尖锐一些。

当 Anthropic 宣布 Claude Mythos「能力过强不发布」时,它实际上在行使一种准监管权力——决定一项技术是否「安全到可以被社会使用」。这个决定的性质,与 FDA 决定一种新药是否可以上市、与核管理委员会决定一项核技术是否可以商用,在功能上是等价的。

但区别在于:FDA 是由美国国会授权的联邦机构,核管理委员会受《原子能法》约束,而 Anthropic 是一家 Public Benefit Corporation——它的决策权来源于公司章程和自设的 RSP 政策,不来源于任何民主授权。

这里有2个对立视角需要严肃对待。

视角A:负责任的先例

支持 Anthropic 决策的论证逻辑如下:

  1. 没有外部框架可以依赖。 截至2026年4月,全球没有任何国家建立了针对前沿AI模型能力评估的强制性监管框架。美国没有通过联邦层面的AI安全立法,欧盟的 AI Act 虽已生效但其风险分类体系并未覆盖「模型自主发现零日漏洞」这种新兴能力。在监管真空中,企业自律是唯一可用的制动机制。

  2. Anthropic 的 RSP 是行业内最具体的自我约束框架。 与 OpenAI 的 Preparedness Framework 和 Google DeepMind 的 Frontier Safety Framework 相比,Anthropic 的 RSP 设定了明确的能力阈值和对应的安全措施等级。当模型能力触及阈值时,RSP 要求停止部署直到安全措施到位。Mythos 的「不发布」决策是 RSP 的逻辑执行,不是即兴决定。

  3. 信息不对称是客观存在的。 只有训练模型的公司才拥有对模型能力的完整评估数据。要求一个外部机构——无论是政府还是第三方审计——在短期内建立等效的评估能力,在技术上不现实。

NowadAIs 的分析进一步指出,Mythos 的安全风险不仅在于其攻击能力本身,还在于这种能力一旦泄露(通过权重盗取或 API 滥用),将对全球软件基础设施构成系统性威胁 (来源: NowadAIs, 2026-04)。在这种场景下,「不发布」可能确实是当前最合理的选择。

视角B:危险的私权扩张

反对 Anthropic 单方面决策的论证同样有力:

  1. 自我审查权没有边界。 今天 Anthropic 以「社会操纵能力超阈值」为由不发布 Mythos,明天它可以以任何理由不发布任何模型。RSP 的阈值由 Anthropic 自己设定,评估由 Anthropic 自己执行,决策由 Anthropic 自己做出。这不是治理,这是完全的自由裁量权

  2. 「不发布」和「选择性发布」是两回事。 Anthropic 并没有真正「不发布」Mythos——它只是不对公众发布。通过 Project Glasswing,AWS、Apple、Google、Microsoft 获得了准入权 (来源: Anthropic, 2026-04)。这意味着 Anthropic 实际上在行使的不是「安全制动」,而是准入分配——决定谁可以使用这项技术,谁不可以。这种权力在传统治理框架中属于政府职能。

  3. 利益冲突不可忽视。 Anthropic 的最大投资方之一是 Amazon/AWS。Project Glasswing 的核心合作方是 AWS。Claude Mythos Preview 通过 Amazon Bedrock 提供受限预览 (来源: AWS, 2026-04-13)。一个由最大客户和投资方组成的「安全联盟」来决定一项技术的准入规则,这在任何其他行业都会被视为明显的利益冲突。

  4. 「能力过强」的定义本身是一种权力。 当 Anthropic 宣布 Mythos 的社会操纵能力「超过阈值」时,它同时在定义什么是「社会操纵」、什么是「阈值」、以及用什么方法来测量。这些定义没有经过任何外部同行评审、没有经过任何公共讨论、没有经过任何民主程序。arXiv 上的一篇研究论文「The Coordination Gap in Frontier AI Safety Policies」明确指出了前沿AI安全政策中的协调缺口问题——各公司各自为政,标准不统一,外部验证机制缺失 (来源: arXiv, 2603.10015v1)。

我的判断: Anthropic 的决策在当前监管真空中是可以理解的,甚至在短期内可能是最优解。但这个先例的危险性在于,它正在建立一种「技术公司作为准监管者」的治理范式,而这种范式缺乏问责机制、缺乏透明度、缺乏纠错能力。如果我们接受 Anthropic 今天的决定是「负责任的」,我们同时也在接受一个逻辑推论:未来任何前沿AI公司都可以以「安全」为由,单方面决定哪些技术能力可以进入公共领域、哪些不可以——而无需向任何人解释具体理由。


3. 核武器类比:成立还是误导?

Anthropic CEO Dario Amodei 多次将前沿AI风险与核武器、生物武器相类比。Claude Mythos 的「不发布」决策,也被一些评论者比作核不扩散框架。这个类比值得仔细拆解,因为它既有启发性,也有严重的误导性。

类比成立的部分

  1. 能力的不可逆扩散。 核武器设计一旦泄露就无法收回,模型权重一旦泄露也无法收回。Claude Mythos 的零日漏洞发现能力如果被恶意行为者获取,造成的损害可能是系统性的——Reuters 的报道指出,AI增强的黑客攻击结合 Anthropic Mythos 级别的能力,可能对银行等关键基础设施造成「dire consequences」(来源: Reuters, 2026-04-13)。

  2. 攻防不对称。 核武器的攻击能力远超防御能力,零日漏洞的发现同样如此——发现一个漏洞的成本远低于修补所有可能被利用的漏洞的成本。Mythos 的能力使这种不对称性进一步放大。

  3. 少数行为者的巨大影响力。 核武器只有少数国家能制造,前沿AI模型也只有少数公司能训练。这种自然垄断使得「准入控制」成为一种可行的风险管理策略。

类比严重误导的部分

  1. 核不扩散是国际条约体系,不是私人决策。 《不扩散核武器条约》(NPT) 是由联合国大会通过、190多个国家签署的国际法律文件。核技术的准入控制由国际原子能机构 (IAEA) 执行,IAEA 的权力来源于主权国家的授权。而 Claude Mythos 的准入控制由 Anthropic 的内部政策执行,权力来源于公司章程。把公司政策等同于国际条约,是对治理合法性的根本性混淆。

  2. 核武器的「不扩散」是对所有非核国家的限制,而 Mythos 的「不发布」是对公众的限制。 在核不扩散框架中,5个核武器国家的身份是由历史事实和条约文本确定的,不是由某个核武器国家单方面决定的。而在 Project Glasswing 中,谁可以使用 Mythos、谁不可以,完全由 Anthropic 和其合作方决定。这不是「不扩散」,更接近于「选择性扩散」——而选择标准不透明。

  3. 核武器的危险性是物理确定的,AI能力的危险性是情境依赖的。 一枚核弹的杀伤力可以精确计算。但 Claude Mythos 的「社会操纵能力」有多危险,取决于部署场景、用户意图、安全措施等大量变量。将一个情境依赖的风险评估结果,作为类似核武器管控级别的限制措施的依据,在方法论上是有问题的。

  4. 核技术管控有独立的验证机制,AI安全评估没有。 IAEA 可以对任何签约国进行核查。但谁可以对 Anthropic 的 RSP 评估进行独立核查?答案是:没有人。Anthropic 可以发布评估结果的摘要,但完整的评估数据、测试方法、阈值设定的依据,都是公司内部信息。

核心洞察: 核武器类比最有价值的部分不是「AI像核武器一样危险」,而是核治理框架花了数十年才建立起来,而AI治理框架的建立速度远远跟不上AI能力的增长速度。 这个时间差才是真正的风险所在。Anthropic 的自我设限,本质上是在用私人治理填补公共治理的真空——这在短期内可能有效,但作为长期范式是不可持续的。


4. Project Glasswing 的真实含义:从「不发布」到「选择性准入联盟」

让我们更仔细地看 Project Glasswing 的结构,因为它揭示了「不发布」叙事背后的真实治理模型。

根据 Anthropic 官方公告,Project Glasswing 联合了 AWS、Apple、Google、Microsoft 等公司,使用 Claude Mythos Preview 来保护关键软件基础设施安全 (来源: Anthropic, 2026-04)。这意味着 Mythos 的零日漏洞发现能力被用于防御性目的——在漏洞被恶意利用之前发现并修补它们。

这个架构有3个值得关注的特征:

特征1:参与者全部是现有科技巨头。 AWS、Apple、Google、Microsoft——这4家公司加上 Anthropic 本身,基本上控制了全球云计算、移动操作系统、搜索引擎和办公软件的绝大部分市场。Project Glasswing 的准入名单,与全球科技权力结构高度重合。没有任何政府机构、没有任何独立安全研究机构、没有任何民间社会组织出现在这个名单上。

特征2:防御性使用和攻击性使用的边界是模糊的。 一个能自主发现零日漏洞的模型,其「防御性使用」和「攻击性使用」的区别,仅仅取决于使用者的意图和操作规程。同一个漏洞发现能力,可以用来修补漏洞,也可以用来构造攻击。Project Glasswing 的安全保障,完全依赖于参与者的自律和 Anthropic 的监控——而不是任何外部的、独立的、有法律约束力的机制。

特征3:这个模型创造了巨大的商业价值——但只对联盟成员。 能够在竞争对手之前发现并修补自己软件中的零日漏洞,是一种极其强大的竞争优势。Project Glasswing 的参与者获得了这种优势,而非参与者——包括所有中小型软件公司、开源项目、发展中国家的技术基础设施——被排除在外。这不仅仅是安全问题,更是竞争公平性问题

AWS 同期发布的 Agent Registry 预览版进一步强化了这个治理架构。Agent Registry 提供了「集中式 AI Agent 发现与治理」能力 (来源: AWS, 2026-04-13),这意味着通过 Amazon Bedrock 使用 Mythos Preview 的客户,其 Agent 的行为将被集中式地监控和管理。这是一个技术上优雅的解决方案,但它同时意味着治理权力被集中到了云服务提供商手中

大多数人没看到的: Project Glasswing 的真正意义不在于 Mythos 的安全风险管理,而在于它开创了一种新的AI治理模型——「安全准入联盟」。在这个模型中,前沿AI能力不是通过市场机制(谁付钱谁用)或公共机制(政府监管后向所有人开放)来分配,而是通过私人联盟的成员资格来分配。这种模型在历史上有先例——中世纪的行会制度、冷战时期的技术出口管制联盟(如 COCOM/Wassenaar Arrangement)。但这些先例要么已经被市场经济取代,要么是由主权国家而非私人公司主导的。


5. 协调缺口:为什么自我设限不够

arXiv 上的论文「The Coordination Gap in Frontier AI Safety Policies」为理解 Anthropic 决策的局限性提供了关键框架 (来源: arXiv, 2603.10015v1)。

这篇论文的核心论点是:即使每家前沿AI公司都制定了自己的安全政策(如 Anthropic 的 RSP、OpenAI 的 Preparedness Framework、Google DeepMind 的 Frontier Safety Framework),这些政策之间缺乏协调,导致整体安全水平取决于最薄弱的环节

具体到 Mythos 的案例,协调缺口体现在以下几个层面:

层面1:能力评估标准不统一。 Anthropic 认为 Mythos 的社会操纵能力「超过阈值」,但这个阈值是 Anthropic 自己设定的。OpenAI 或 Google DeepMind 如果训练出类似能力的模型,它们会使用不同的评估方法、不同的阈值定义、可能得出不同的结论。没有统一的评估标准,「能力过强」就是一个主观判断,而非客观事实。

层面2:「不发布」的竞争劣势缺乏补偿机制。 Anthropic 选择不发布 Mythos,这意味着它放弃了直接将 Mythos 商业化的收入。如果竞争对手训练出类似能力的模型但选择发布,Anthropic 将面临巨大的竞争劣势——而没有任何机制来补偿这种因「负责任行为」而产生的损失。这是一个经典的囚徒困境:个体的最优策略是「发布」,集体的最优策略是「不发布」

VentureBeat 的报道提供了一个有趣的侧面证据:用户已经开始反映 Anthropic 是否在「削弱」Claude 的性能 (来源: VentureBeat, 2026)。这说明 Anthropic 的安全导向策略已经在用户体验层面产生了可感知的影响。如果用户因为性能不满而转向安全标准更低的竞争对手,Anthropic 的安全投入就变成了纯粹的成本——这种动态是不可持续的。

层面3:缺乏外部验证和问责。 Anthropic 声称 Mythos 的能力超过了安全阈值,但外部观察者无法独立验证这一声明。这创造了一种奇怪的信息不对称:Anthropic 既是裁判(设定阈值),又是运动员(训练模型),还是解说员(向公众解释决策)。 在任何成熟的治理体系中,这3种角色都应该由不同的主体承担。

层面4:地缘政治维度。 Anthropic 的决策只约束 Anthropic 自己。中国的AI实验室、俄罗斯的AI研究机构、以及任何不受美国法律管辖的组织,都不受 Anthropic RSP 的约束。如果前沿AI能力的危险性真的可以类比核武器,那么单边的自我设限——就像单边核裁军一样——可能不会降低全球风险,只会改变风险的分布。


6. 金融系统的压力测试:Mythos 风险的具体化

Reuters 的报道将 Mythos 的风险讨论从抽象的安全辩论拉回到了具体的行业场景:AI增强的黑客攻击可能对银行系统造成严重后果 (来源: Reuters, 2026-04-13)。

这个风险场景值得展开。金融系统是全球最复杂的软件基础设施之一,也是最有价值的攻击目标之一。一个能自主发现零日漏洞的AI模型,如果被用于攻击银行系统,可能带来以下后果:

  1. 发现速度远超人类。 传统的零日漏洞发现依赖于安全研究员的手工分析,一个高级研究员可能需要数周到数月才能发现一个关键漏洞。如果 Mythos 级别的模型能将这个时间缩短到小时甚至分钟级别,攻击者的能力将发生质变。

  2. 攻击的自动化和规模化。 不仅仅是发现漏洞,如果模型还能自动生成利用代码、自动适配不同目标环境,那么攻击的边际成本将趋近于零——这意味着攻击者可以同时对数千个目标发起零日攻击。

  3. 防御方的结构性劣势。 即使 Project Glasswing 的参与者获得了 Mythos 的防御性使用权,金融系统中的大量遗留系统、第三方组件、开源依赖库并不在 Glasswing 的保护范围内。攻击面远大于防御面。

与此同时,2026年的科技行业正在经历大规模裁员——Oracle 裁减3万人,AI自动化被认为是主因之一 (来源: Reuters, 2026-04-13)。这意味着许多组织的安全团队正在缩减,而它们面临的AI增强攻击威胁正在增加。这种「安全人才减少 + 攻击能力增强」的剪刀差,使得 Mythos 的风险不仅仅是理论上的。

Fortune 的报道提供了另一个维度:CFO们相信AI正在产生回报,但研究者并不确定 (来源: Fortune, 2026-03-26)。这种「管理层乐观 vs. 研究者谨慎」的分歧,在安全领域可能意味着:企业在大规模部署AI的同时,对AI带来的新型安全风险的投入不足。


7. 治理框架的缺失:谁应该来定义「太强」?

如果 Anthropic 单方面定义「太强」是不够的,那么谁应该来做这件事?

选项1:政府监管机构。 这是最传统的答案,也是最困难的。截至2026年4月,没有任何国家的政府具备独立评估前沿AI模型能力的技术能力。建立这种能力需要:(a) 大量的计算资源来复现和测试模型行为;(b) 顶级的AI安全研究人才——而这些人才目前几乎全部在私营部门;(c) 持续更新的评估方法论——因为AI能力的前沿在快速移动。美国的 AI Safety Institute (AISI) 是最接近这个角色的机构,但截至本文发布时暂无公开数据表明 AISI 参与了 Mythos 的评估。

选项2:独立第三方审计机构。 类似于金融领域的四大会计师事务所,建立专门的AI安全审计机构。这个方向有一定可行性,但面临2个核心挑战:(a) 审计机构需要获得模型的完整访问权限,包括权重、训练数据、内部评估结果——而这些是AI公司最核心的商业机密;(b) 审计标准由谁来制定?如果由AI公司自己参与制定,就又回到了「运动员制定规则」的问题。

选项3:多利益相关方治理模型。 类似于互联网治理中的 ICANN 模式,建立一个由政府、企业、学术界、民间社会共同参与的治理机构。这个方向在理论上最合理,但在实践中最慢——ICANN 从成立到有效运作花了超过10年,而AI能力的增长不会等待治理框架的建立。

选项4:当前的默认状态——企业自治 + 事后追责。 这就是我们现在所处的位置。Anthropic 自己决定 Mythos「太强」,自己决定不发布,自己决定通过 Glasswing 进行选择性部署。如果这个决策是错误的——无论是过度限制还是限制不足——没有任何机制来纠正它,除了市场竞争和公众舆论。

我的判断: 短期内(12-24个月),选项4是唯一现实的选项。但我们必须清醒地认识到,这个选项的合法性来源于监管真空,而非民主授权。一旦政府建立起独立的评估能力,企业的自我审查权应该被纳入公共治理框架,而非继续作为独立的决策权存在。Anthropic 今天的决策可以被视为「紧急状态下的临时措施」,但不应该被视为「长期治理范式」。


8. 被忽视的第4层洞察:「不发布」创造了一种新的稀缺性

大多数关于 Mythos 的讨论集中在安全风险上。但几乎没有人讨论「不发布」决策的经济效应

当 Anthropic 宣布 Mythos 能力超强但不公开发布时,它实际上创造了一种人工稀缺性。在正常的市场中,如果一家公司拥有一项强大的技术,它会尽快商业化以获取收入。Anthropic 反其道而行之——宣布拥有这项技术,然后宣布不出售。

这种行为的效果是:

  1. 品牌价值的极大提升。 「我们的模型太强了以至于不能发布」——这是有史以来最强大的产品营销话术之一。它同时传达了2个信息:(a) 我们的技术领先于所有竞争对手;(b) 我们比所有竞争对手更负责任。CNBC 报道的「Claude Mania」和 Anthropic ARR 突破$30B (来源: CNBC, 2026-04-13),与 Mythos 的「不发布」叙事在时间线上高度重合。

  2. 竞争对手的两难困境。 如果 OpenAI 或 Google DeepMind 也训练出了类似能力的模型,它们现在面临一个选择:(a) 也宣布「不发布」,但这会被视为跟随 Anthropic 的先例,强化 Anthropic 的领导地位;(b) 选择发布,但这会被视为「不负责任」,在公众舆论中处于劣势。无论哪种选择,Anthropic 都已经占据了叙事高地。

  3. 选择性准入的溢价。 通过 Project Glasswing 和 AWS Bedrock 获得 Mythos Preview 访问权的组织,实际上获得了一种排他性的技术优势。这种优势的价值,正是因为 Mythos 不对外公开发布而被放大的。如果 Mythos 像普通模型一样通过 API 向所有人开放,它的差异化价值会迅速被竞争和模仿所稀释。

这不是在指控 Anthropic 的动机不纯。 Anthropic 的安全担忧可能是完全真诚的。但真诚的动机和有利的经济效果并不矛盾。问题在于:当「安全决策」和「商业利益」恰好指向同一个方向时,我们如何判断决策的真实驱动因素?这正是为什么独立的外部验证机制如此重要——不是因为我们不信任 Anthropic,而是因为在利益一致的情况下,自我验证无法提供可信的信号


9. So What:这对你意味着什么?

如果你是AI公司的决策者:Anthropic 的 Mythos 决策正在建立一个先例。如果你的模型在内部评估中展现出类似的能力,你将面临同样的选择——而你的选择将被放在 Anthropic 先例的参照系中评判。现在就开始建立可审计的、可解释的内部评估框架,不是为了合规(因为还没有法规),而是为了在未来法规到来时不被动。

如果你是企业CTO/CISO:Project Glasswing 的模型意味着前沿AI安全能力正在成为一种俱乐部商品——只有联盟成员才能获得。如果你的组织不在这个联盟中,你的安全态势将相对恶化。评估你的云服务提供商是否在 Glasswing 或类似联盟中,并将此纳入供应商选择标准。

如果你是政策制定者:Anthropic 的决策暴露了一个紧迫的治理缺口。前沿AI能力的评估和准入控制不能长期留在私营部门手中。优先建立独立的AI能力评估基础设施——不需要等到完美的法律框架就绪,先建立技术评估能力。

如果你是投资者:「不发布」策略正在创造一种新的价值动态——AI公司的估值不仅取决于它们发布了什么,还取决于它们选择不发布什么。Anthropic 通过 Mythos 的「不发布」叙事,同时强化了技术领先性和安全品牌,这对其ARR增长和未来融资有直接影响。但要警惕:如果「不发布」成为行业常态,它可能演变为一种反竞争行为——以安全为名限制技术扩散,以维护现有巨头的市场地位。

如果你是普通公民:一家私人公司刚刚决定了你不能使用某项技术,同时决定了全球最大的几家科技公司可以使用。这个决定没有经过任何你可以参与的程序。无论你是否同意这个决定的实质内容,你都应该关心这个决定的程序合法性——因为下一个被「不发布」的技术,可能是你需要的。


结语

Claude Mythos 的「不发布」不是一个关于AI安全的技术决策。它是一个关于谁有权决定技术边界的治理事件。

Anthropic 在监管真空中做出了一个可能在当前条件下最优的选择。但这个选择的代价是:它正在将「前沿AI能力的准入控制权」从公共领域转移到私人领域,从民主程序转移到公司政策,从透明的规则转移到不透明的内部评估。

核武器的治理框架花了数十年才建立。我们没有数十年的时间来建立AI的治理框架。但我们至少应该从核治理的历史中学到一个教训:最危险的不是技术本身,而是将技术的控制权集中在少数行为者手中,且没有有效的制衡机制。

Anthropic 今天是那个「负责任的少数行为者」。但治理体系的设计,不应该基于「当前的决策者恰好是负责任的」这个假设。它应该基于「即使决策者不负责任,体系仍然能够运作」这个标准。

按照这个标准,我们还差得很远。


参考资料

  1. Anthropic 发布 Project Glasswing — Anthropic, 2026-04
  2. Anthropic 发布 Claude Mythos Preview:自主发现零日漏洞,能力过强不公开发布 — InfoQ, 2026-04
  3. AWS Weekly Roundup: Claude Mythos Preview in Amazon Bedrock, AWS Agent Registry, and more — AWS, 2026-04-13
  4. AI-boosted hacks with Anthropic’s Mythos could have dire consequences: banks — Reuters, 2026-04-13
  5. OpenAI touts Amazon alliance in memo; Microsoft limited our ability — CNBC, 2026-04-13
  6. What Is Claude Mythos—And Why Anthropic Won’t Let Anyone Use It — Forbes/Jon Markman, 2026-04-08
  7. The Coordination Gap in Frontier AI Safety Policies — arXiv, 2026-03
  8. Is Anthropic nerfing Claude? Users increasingly report performance issues — VentureBeat, 2026
  9. Why Anthropic Claude Mythos AI Security Risks Keep It Off The Market — NowadAIs, 2026-04
  10. CFOs believe AI is paying off. Researchers aren’t so sure—yet — Fortune, 2026-03-26

主题分类:监管政策