编者按:本文基于2026年4月10日CNBC和Fortune的公开报道,对Anthropic Mythos模型引发的金融安全事件进行深度分析。由于事件刚刚发生,部分技术细节尚未被完全公开披露,文中对漏洞技术性质和模型能力的分析包含基于公开信息的合理推断,相关推断均已明确标注。


2026年4月10日,华盛顿时间上午,美国财政部长Scott Bessent和美联储主席Jerome Powell几乎同时拿起电话。他们召集的不是常规的金融稳定会议,也不是应对市场波动的紧急协调——而是一场专门讨论一个AI模型的闭门会议。受邀者是华尔街最大银行的CEO们。

这个AI模型叫做Anthropic Mythos。根据CNBC当日报道,它发现了一个潜伏于金融基础设施中长达27年的关键安全漏洞。(来源: CNBC, 2026-04-10)

27年。1999年,互联网泡沫尚未破裂,iPhone还要再等8年才会诞生,云计算还是科幻概念。那一年写下的某段代码中的某个未被修补的逻辑缺陷——经历了无数次审计、渗透测试和合规检查——在2026年,被一个AI模型定位并标记为高危漏洞。

Fortune在同日报道中将此事件定性为「警钟」,称「AI驱动的黑客时代已经到来」。(来源: Fortune, 2026-04-10)

这是Bessent和Powell为什么同时拿起电话的原因。


第一章:紧急召集——当财政部长和美联储主席同时拿起电话

要理解这次会议的不寻常之处,需要先理解华盛顿金融监管的日常运作逻辑。

美国财政部和美联储之间存在长期的制度性张力。财政部代表行政权力,美联储捍卫其独立性。两者同时、主动地召集私营银行CEO进行紧急讨论,在历史上只发生于真正的系统性危机时刻:2008年9月雷曼兄弟倒闭后的救市协调(时任财长Henry Paulson召集华尔街CEO在纽约联储大楼连续开会48小时),2020年3月新冠疫情冲击下美联储紧急降息至零并启动无限量QE。

2026年4月10日的会议,将一个AI模型的能力评估提升到了与金融危机、疫情冲击同等的政策响应级别。(来源: CNBC, 2026-04-10)

响应速度本身就是信号

传统的金融监管响应链条是这样运作的:安全事件发生→机构内部评估→向监管机构报告→监管机构研究→政策建议→立法或行政行动。整个链条从事件到政策响应,通常需要数月甚至数年。安然丑闻于2001年10月曝光,《萨班斯-奥克斯利法案》(SOX)于2002年7月30日由小布什总统签署——从丑闻到立法历时约9个月,在美国立法速度中已属极快。《多德-弗兰克法案》在2008年金融危机后用了近2年时间(2010年7月21日签署)通过。

但Mythos事件的政策响应发生在事件曝光后的同一天

这种速度上的异常揭示了一个深层判断:监管者认为,他们面对的不是一个需要研究和论证的新问题,而是一个已经超越现有框架、需要立即行动的紧急威胁。

从技术角度理解这种紧迫性:一个存在27年的漏洞,一旦被公开标记,其利用窗口期极短。在网络安全领域,这被称为「零日到N日」的转化——一个漏洞从被发现(零日)到被广泛利用(N日)的时间窗口。根据Google Project Zero在2022年发布的研究,高危漏洞从公开披露到出现野外利用的平均时间已从2018-2019年的约30天缩短至2021-2022年的约15天。对于金融基础设施级别的漏洞,这个窗口可能更短——因为潜在攻击者的动机和资源都更强。(来源: Google Project Zero, 2022)

在漏洞被修补之前,任何掌握同等能力的攻击者——无论是国家级威胁行为者(如美国CISA在2024年年度威胁评估中重点关注的中国、俄罗斯、朝鲜和伊朗的APT组织)、有组织的网络犯罪集团,还是个人黑客——都可以利用这个已知漏洞发动攻击。而金融系统的特殊性在于,一个关键节点的突破可以通过清算、结算、流动性传导机制产生系统性连锁反应。

Bessent和Powell的电话,本质上是在说:我们不知道有多少人已经知道这个漏洞,我们不知道有多少人已经在利用它,但我们知道现在每过一小时,风险就在增加。


第二章:Mythos做了什么——一个AI模型如何改写网络安全的攻防逻辑

要真正理解Mythos事件的技术意义,需要先理解传统安全审计的局限性在哪里。

传统安全审计的结构性盲区

金融机构每年在网络安全上投入巨额资金。根据Deloitte在2024年发布的《金融服务业网络安全报告》,大型银行的网络安全预算通常占IT总预算的10%-15%,摩根大通CEO Jamie Dimon在2024年年报中披露该行年度网络安全支出约为150亿美元。这些投入覆盖渗透测试(Penetration Testing)、漏洞扫描(Vulnerability Scanning)、安全代码审查(Secure Code Review)、红队演练(Red Team Exercise)以及持续的合规审计。

但这些方法有一个共同的结构性局限:它们都是基于已知威胁模型的防御。

渗透测试依赖人类安全研究员的经验和直觉,测试范围受限于时间预算和测试者的知识边界。一个经验丰富的渗透测试团队可能在2-4周的测试窗口内发现数十个漏洞,但他们无法穷举一个拥有数百万行代码、运行27年的系统中所有可能的攻击路径。

自动化漏洞扫描工具(如Tenable的Nessus、Qualys)依赖已知漏洞的特征库(MITRE CVE数据库)。截至2025年底,CVE数据库已收录超过24万个已知漏洞。这些工具擅长发现已知类型的漏洞,但对于逻辑性漏洞、业务流程漏洞、或者跨多个系统组件交互产生的复合型漏洞,几乎无能为力。

这正是那个27年漏洞能够存活至今的可能原因:根据已公开的信息推断,它不是一个简单的缓冲区溢出或SQL注入,而是一个需要理解整个系统架构、业务逻辑和历史演变才能识别的深层缺陷。(注:截至发稿,漏洞的具体技术细节尚未被Anthropic或相关金融机构公开披露,这一推断基于漏洞能够在27年间躲过多轮安全审计这一事实。)

Mythos的能力边界:不只是更快的扫描器

Fortune将Mythos定性为「警钟」,认为AI驱动的黑客时代已经到来。(来源: Fortune, 2026-04-10)这个判断的技术依据是什么?

要理解Mythos可能代表的能力飞跃,需要参考AI在代码分析领域的已有进展。2024年,Google DeepMind的AlphaCode 2在编程竞赛中达到了前15%人类参赛者的水平。同年,Anthropic发布的Claude 3.5 Sonnet在SWE-bench(一个衡量AI修复真实GitHub issue能力的基准测试)上达到了49%的解决率,较前代模型有显著提升。到2025年,多个AI模型在代码理解和生成任务上的表现已经接近甚至超过中级软件工程师。(来源: Anthropic Blog, 2024-06-20; Google DeepMind, 2024)

Mythos代表的不是「更快的漏洞扫描器」,而是一种本质不同的安全分析范式。基于AI代码分析能力的发展轨迹,可以合理推断Mythos具备以下关键能力:

语义理解能力。传统安全工具分析代码的方式是模式匹配——寻找已知的危险函数调用、不安全的API使用方式。而从Claude 3.5 Sonnet在SWE-bench上的表现来看,前沿AI模型已经能够理解代码的语义:这段代码试图做什么?它的业务逻辑是什么?在特定的输入条件下,这个逻辑会产生什么样的意外行为?Mythos作为Anthropic的更新模型,在这一维度上的能力提升是可以预期的。

跨系统推理能力。现代金融基础设施不是单一系统,而是由数十个甚至数百个相互依赖的子系统构成的复杂网络。SWIFT系统连接全球超过11,000家金融机构,美国联邦储备系统的Fedwire每天处理超过3万亿美元的资金转移。一个漏洞可能需要同时理解前端交易系统、中间件、核心银行系统和清算接口才能被识别。人类安全研究员在面对这种复杂性时往往需要数月时间建立系统理解,而AI模型可以在更短时间内处理海量的系统文档、代码库和架构图。

历史上下文整合。那个27年的漏洞之所以难以被发现,部分原因可能在于它的形成历史——它可能是在某次系统升级中引入的,当时的设计者已经离职,相关文档已经丢失或过时,现有团队对这段历史代码的理解存在盲区。AI模型可以整合版本控制历史(如Git日志)、变更日志、技术文档和代码注释,重建一个系统的演变历史,从而发现那些只有在历史上下文中才能理解的安全缺陷。

攻防逻辑的根本性翻转

这里有一个关键的不对称性,是大多数讨论Mythos事件的分析所忽视的。

在传统的网络安全范式中,攻防之间存在一种动态平衡:攻击者发现漏洞,防御者修补漏洞,双方在这个循环中不断博弈。RAND Corporation在2017年的研究《Zero Days, Thousands of Nights》中发现,一个零日漏洞的平均存活时间约为6.9年——这意味着攻防双方在一个以年为单位的时间尺度上博弈。

Mythos打破了这个平衡的前提假设。

当一个AI模型能够系统性地、快速地发现传统方法无法发现的深层漏洞时,它实际上是在同时赋能攻防双方。如果防御方使用Mythos发现并修补漏洞,这是防御能力的提升。但如果攻击方获得了同等能力的AI工具,他们就能以同样的速度发现这些漏洞,而且他们不需要负责任地披露或等待修补。

这就是Fortune所说的「AI驱动的黑客时代已经到来」的真实含义:不是说AI会被用于攻击(这已经在发生——微软在2024年2月报告称已检测到来自俄罗斯APT28和中国APT组织使用大语言模型辅助攻击的证据),而是说AI使得大规模、系统性的漏洞发现变得可能,而这种能力的扩散速度远超防御体系的升级速度。(来源: Microsoft Threat Intelligence, 2024-02-14)


第三章:AI编码市场的「双刃剑」效应——快速增长市场背后的系统性风险

如果说Mythos事件揭示了AI作为安全分析工具的能力边界,那么AI编码市场的现状则揭示了一个更深层、更难以逆转的结构性风险。

AI深度嵌入软件开发的现实

根据Fortune在2026年4月10日的报道,AI编码市场规模达到40亿美元,其中Claude Code和Cursor合计占据超过70%的市场份额。(来源: Fortune, 2026-04-10)

作为参照,这一数据与此前的市场趋势一致。Gartner在2024年预测,到2028年75%的企业软件工程师将使用AI编码助手,较2023年初的不到10%大幅增长。GitHub在2024年报告称其Copilot产品已拥有超过130万付费用户,代码补全接受率约为30%。Cursor在2024年下半年经历了爆发式增长,据The Information报道,其年化收入在2024年底已突破1亿美元。Anthropic于2025年推出的Claude Code迅速成为企业级AI编码工具的主要竞争者。(来源: Gartner, 2024; GitHub Blog, 2024; The Information, 2024-12)

这些数字意味着:今天大量的金融软件——从前端交易界面到后端风控系统——正在由AI辅助编写。银行的开发团队使用Claude Code生成代码片段,使用Cursor进行代码补全和重构,使用各种AI工具加速软件开发周期。

供应链攻击的新向量

当Claude Code或Cursor被广泛用于金融软件开发时,这些工具本身就成为了潜在的供应链攻击目标。

考虑以下场景:如果一个AI编码工具被攻击者操控,使其在生成的代码中系统性地引入微小但关键的逻辑缺陷——不是明显的后门,而是在特定条件下才会触发的边界条件错误——那么使用这个工具的所有开发者都会在不知情的情况下将这些缺陷引入他们的系统。

这不是假设性的威胁场景。软件供应链攻击已经有充分的历史案例:

  • 2020年SolarWinds事件:攻击者(后被归因于俄罗斯SVR)通过污染SolarWinds Orion软件的更新包,渗透了包括美国财政部、商务部、国土安全部在内的至少9个联邦机构和约100家私营企业。(来源: CISA, 2021)
  • 2021年Codecov事件:攻击者篡改了Codecov的Bash Uploader脚本,影响了数百家使用该工具的企业的CI/CD管道。
  • 2024年XZ Utils后门事件:一个化名”Jia Tan”的贡献者花费近2年时间获取开源压缩库XZ Utils的维护权限,并植入了一个精心设计的SSH后门,差点影响几乎所有主流Linux发行版。(来源: Ars Technica, 2024-03-29)

AI编码工具的供应链攻击在理论上可以产生比上述案例更广泛的影响,因为AI工具的使用渗透率更高、使用场景更核心。更微妙的风险来自AI工具的训练数据——如果攻击者能够污染用于训练AI编码模型的代码数据集(所谓的「数据投毒」攻击),使模型学会在特定上下文中生成存在安全缺陷的代码,这种攻击将极难被检测。2023年,加州大学圣地亚哥分校的研究团队在论文《TrojanPuzzle》中已经演示了这种攻击的可行性。(来源: arXiv:2301.02344, 2023)

攻击面的指数级扩大

Claude Code和Cursor占据70%以上AI编码市场份额这一数据,在安全视角下有着特殊的含义:它意味着金融系统的代码库正在以前所未有的速度增长和变化,同时这些变化的安全审查能力并没有同步提升。

根据GitHub的2024年Octoverse报告,使用AI编码助手的开发者的代码产出量平均提高了55%。但ISC²在2024年的《网络安全劳动力研究》中指出,全球网络安全人才缺口已达到约400万人。代码生产速度在加速,安全审查能力的瓶颈却没有被打破。(来源: GitHub Octoverse, 2024; ISC², 2024)

这产生了一个结构性的安全债务:系统的代码库在快速扩张,潜在的攻击面在增大,但审查这些变化的安全能力相对滞后。

从另一个角度看,Claude Code和Cursor在金融系统开发中的深度渗透,也意味着这两个工具的任何安全问题都会直接影响使用它们构建的金融基础设施。这是一种新型的系统性风险:不是单个金融机构的漏洞,而是整个金融软件生态系统的共同依赖点(Common Point of Failure)。

对立视角一:AI编码工具也是安全的提升者

公平地说,这里存在一个需要认真对待的反驳观点。

Claude Code在代码生成过程中会主动标记潜在的安全问题,提示开发者避免已知的不安全模式。GitHub Copilot在2024年集成了安全扫描功能,可以在开发阶段发现部分安全缺陷。Snyk在2024年的研究中发现,使用AI编码助手的项目中,常见安全漏洞(如SQL注入、XSS)的出现率比不使用AI助手的项目低约15%。(来源: Snyk, 2024)

从这个角度看,AI编码工具的普及可能整体上提高了代码质量,减少了低级安全错误的数量。

我的判断:这个观点在「已知威胁」层面是成立的。AI工具确实可以减少已知类型的安全错误。但它回避了核心问题——AI工具无法解决「未知的未知」,即那些只有通过深度系统理解才能发现的复杂逻辑漏洞,正是Mythos所展示的那种发现能力。更重要的是,AI编码工具提高了代码生产速度,这意味着系统复杂性的增长速度可能超过了安全审查能力的提升速度。这两种效应在不同层面上同时发生,并不相互抵消。


第四章:制度性挑战——现有监管框架为何失灵,以及可能的重构路径

Mythos事件最深刻的挑战不在技术层面,而在制度层面。

合规驱动型监管的结构性失败

当前金融监管体系的核心逻辑是合规驱动(Compliance-Driven):监管机构制定规则(如SOX、PCI-DSS 4.0、NIST CSF 2.0、FFIEC指南),金融机构证明其符合规则,监管机构定期审查合规状态。

但这个逻辑有一个根本性的前提假设:威胁模型是相对稳定的,或者至少是可以被监管机构提前预判和规则化的。

AI主动发现漏洞的能力打破了这个假设。

当Mythos发现了27年未被发现的漏洞时,它实际上证明了以下事实:现有的合规要求所要求的安全措施,不足以发现和修补这类深层漏洞。一个金融机构可以完全合规,同时在其系统中存在Mythos能够发现的关键漏洞。

这是合规驱动型监管的结构性失败:它测量的是「是否遵循了规定的流程」,而不是「系统是否真正安全」。

对立视角二:现有监管框架并非完全失灵

需要承认一个重要的反驳:现有监管框架虽然无法应对Mythos级别的威胁,但它在过去20年中确实显著提高了金融系统的整体安全水平。

PCI-DSS标准自2004年推出以来,大幅降低了支付卡数据泄露事件的发生率。NIST网络安全框架为组织提供了结构化的安全管理方法论。美联储的压力测试机制(CCAR/DFAST)虽然主要针对金融风险,但其方法论已经开始扩展到运营韧性领域——2024年,美联储、OCC和FDIC联合发布了关于银行运营韧性的指导意见,首次将网络安全韧性纳入系统性考量。(来源: Federal Reserve, 2024)

我的判断:现有框架不是「失灵」,而是「不够」。它们有效地抬高了攻击门槛,消除了大量低级威胁。但Mythos事件揭示的是一个不同量级的问题——当AI能够发现超越现有防御范式的漏洞时,合规框架需要从「检查清单」模式进化为「能力验证」模式。这不是推翻现有框架,而是在其之上增加一个新的层次。

可能的制度重构路径

那么,什么样的监管框架能够应对AI驱动的安全威胁?

第一个方向:从合规验证转向能力验证。 与其规定金融机构必须采取哪些安全措施,不如要求金融机构证明其安全体系能够应对特定级别的AI辅助攻击。这类似于压力测试在金融稳定监管中的作用——美联储不规定银行必须持有多少具体资产,而是测试银行在特定压力场景下是否能够保持偿付能力。监管机构可以要求金融机构定期接受「AI安全压力测试」:使用监管机构认可的AI工具对其系统进行安全分析,如果发现高危漏洞,机构必须在规定时间内完成修补并报告。

第二个方向:建立AI安全信息共享机制。 27年漏洞的存在,部分原因在于金融机构之间缺乏有效的安全信息共享。美国金融服务信息共享与分析中心(FS-ISAC)已经在做这方面的工作,但其覆盖范围和强制力有限。在AI安全威胁面前,需要建立更强制性的漏洞共享机制,类似于金融稳定监督委员会(FSOC)在系统性风险监测中的角色。

第三个方向:将AI工具本身纳入监管范围。 Claude Code和Cursor占据70%以上AI编码市场意味着,这些工具已经成为金融基础设施的关键依赖组件。Anthropic、Anysphere(Cursor的开发商)等AI工具提供商,可能需要接受类似于关键金融基础设施供应商(如SWIFT、AWS、Microsoft Azure)的监管审查。欧盟的《AI法案》(2024年8月正式生效)已经为高风险AI系统建立了监管框架,但其对AI编码工具的覆盖尚不明确。(来源: European Commission, 2024)

第四个方向:建立AI安全「快速响应」机制。 4月10日的紧急会议表明,现有制度中缺乏一个专门的AI安全快速响应机制。更合理的制度设计应该是预先定义触发条件、响应流程和处置权限,使监管者不需要每次都从零开始组织应对。美国CISA在2024年发布的《AI安全路线图》中提出了类似的建议,但尚未转化为具体的制度安排。(来源: CISA, 2024)

监管重构的政治经济学障碍

这里需要直面一个不舒服的现实:即使上述制度重构方向是正确的,实现它们面临巨大的政治经济学障碍。

金融机构会抵制任何增加合规成本的新监管要求。根据美国银行家协会(ABA)2024年的调查,合规成本已占中小银行非利息支出的约8%-12%。AI工具提供商会抵制将其纳入金融监管范围——Anthropic CEO Dario Amodei虽然一直倡导AI安全,但对具体的监管形式持谨慎态度。监管机构本身缺乏足够的AI技术能力——美国政府问责局(GAO)在2024年的报告中指出,联邦监管机构在AI专业人才方面面临严重短缺。(来源: GAO, 2024)

更根本的是,AI安全威胁的跨境性质使单一国家的监管努力效果有限。这需要类似于FATF在反洗钱领域所建立的国际协调机制,而这类协调的建立通常需要数年时间。


第五章:大多数人没有看到的那一层

在关于Mythos事件的讨论中,大多数分析停留在「AI发现了一个重要漏洞」和「监管者需要关注AI安全」这两个层面。但有一层更深的含义被普遍忽视。

AI能力的不对称扩散:真正的「奥本海默时刻」

Mythos是Anthropic开发的模型,Anthropic是一家以「AI安全」为核心使命的公司。这意味着Mythos的漏洞发现能力是在负责任的框架下被使用和披露的——发现漏洞,通知相关机构,协助修补,然后公开披露以推动行业改进。

但这个负责任的框架是Anthropic选择的,不是技术本身的约束。

同等能力的AI模型——或者在某些方面能力更强的模型——正在被其他行为者开发和部署。这些行为者包括:OpenAI(其GPT系列模型的代码能力持续提升)、Google DeepMind(Gemini系列)、Meta(Llama系列开源模型,任何人都可以下载和微调)、中国的DeepSeek(其2025年初发布的R1模型在推理能力上引起广泛关注)、以及在监管灰色地带运营的各类组织。

Mythos事件证明了AI能够发现深层安全漏洞的可行性。这个概念验证(Proof of Concept)一旦被建立,就无法被撤销。

这是真正的「奥本海默时刻」——不是第一颗原子弹爆炸的那一刻,而是曼哈顿计划的科学家们意识到核武器是可行的那一刻。从那一刻起,问题就不再是「能否做到」,而是「谁会先做到,以及他们会如何使用」。

「负责任披露」范式的危机

Mythos事件还暴露了网络安全领域「负责任披露」(Responsible Disclosure)范式在AI时代的局限性。

负责任披露的逻辑是:安全研究员发现漏洞→私下通知受影响方→给予合理时间修补(通常为90天,这是Google Project Zero设定的行业标准)→公开披露。这个范式在人类安全研究员的工作速度下是可行的,因为发现漏洞需要大量时间,这段时间可以用于协调修补工作。

但当AI模型可以快速发现大量漏洞时,「给予合理时间修补」这个环节就面临挑战。如果Mythos在一次分析中发现了数十个高危漏洞,受影响的金融机构是否有能力在90天内全部修补?根据Veracode在2024年发布的《软件安全状况报告》,企业修补已知高危漏洞的中位时间为171天——远超90天的披露窗口。(来源: Veracode, 2024)

如果修补速度跟不上发现速度,「负责任披露」的时间窗口就会变得不切实际。这意味着AI安全时代需要一个新的漏洞管理范式,一个能够处理「大规模、快速发现」的披露和修补机制。

防御方的根本性不对称

这里存在一个防御方永远无法完全克服的不对称性:防御者需要修补所有漏洞,攻击者只需要找到一个。

在传统安全环境中,这种不对称性通过防御者的信息优势(他们了解自己的系统)和攻击者的信息劣势(他们需要花时间学习目标系统)来部分平衡。AI模型大幅削弱了这种平衡——攻击者可以使用AI快速获得对目标系统的深度理解,而防御者则需要应对一个能力快速提升的攻击方。

更深层的问题是:金融系统的安全假设建立在「大多数潜在攻击者没有能力发现深层漏洞」的前提上。这个前提正在被AI技术的普及所侵蚀。当发现深层漏洞不再需要数十年的专业经验,而只需要访问一个足够强大的AI工具时,潜在攻击者的能力分布将发生根本性变化——从少数精英黑客的专属能力,变成任何有资源获取前沿AI模型的行为者都可能具备的能力。

这才是Mythos事件中大多数人没有看到的那一层:问题不在于这一个漏洞,而在于发现漏洞的能力本身正在被民主化,而这种民主化对攻击方的赋能速度远快于对防御方的赋能速度。


结语:从Mythos到制度进化——金融系统需要的不是更高的墙,而是新的免疫系统

2026年4月10日的紧急会议,将在历史上被记录为一个标志性时刻。不是因为那个27年的漏洞——它会被修补,相关机构会更新安全协议,Bessent和Powell的会议会产生某种政策建议。而是因为这次漏洞的发现方式,以及这种方式所揭示的未来。

真正重要的是Mythos证明的那个命题:AI系统现在能够系统性地发现人类无法发现的深层安全漏洞。这个命题一旦被证明,它就会永远为真。

金融系统面对这个现实,有两种可能的应对策略。

第一种是更高的墙:加大安全投入,购买更多的安全工具,雇佣更多的安全工程师,制定更严格的合规要求。这是本能的反应,也是大多数金融机构在安全事件后的实际选择。但这种策略的本质是在现有范式内加大投入,而Mythos事件证明的恰恰是现有范式本身的局限性。

第二种是新的免疫系统:承认AI驱动的安全威胁代表了一种范式转变,建立与这种新威胁相匹配的防御体系。这意味着:

  • 将AI工具系统性地引入防御侧(用AI对抗AI)
  • 建立动态的、能够持续演化的安全体系
  • 重构监管框架使其能够应对快速变化的威胁环境
  • 建立跨机构、跨国界的AI安全协调机制

免疫系统的比喻是恰当的:一个健康的免疫系统不是一堵墙,而是一个能够识别新威胁、学习、适应并作出响应的动态系统。它不假设威胁是固定的,而是假设威胁会持续演化,并将这种演化能力内化为系统设计的核心原则。

对于金融机构而言,这意味着安全团队需要从「规则执行者」转变为「威胁模型持续更新者」;安全工具需要从「已知漏洞检测器」转变为「主动式安全分析系统」;监管框架需要从「合规验证」转变为「能力验证」。

对于监管者而言,Bessent和Powell的电话不应该是一次性的危机响应,而应该是建立新型监管机制的起点。

那个27年的漏洞被修补之后,下一个漏洞已经在某个金融系统的代码库中等待着被发现。问题是,发现它的,是防御方还是攻击方。

这个问题的答案,将在很大程度上取决于金融系统能否在Mythos事件之后,真正完成从「更高的墙」到「新的免疫系统」的范式转变。


参考资料

  1. Bessent, Powell Convened Urgent Meeting With Bank CEOs About Anthropic’s New AI Model — CNBC, 2026-04-10

  2. Anthropic Mythos Is a Wake-Up Call: The AI-Driven Hacking Era Is Already Here — Fortune, 2026-04-10

  3. Bessent, Powell, Anthropic Mythos AI Model Cyber Risk — Fortune, 2026-04-10

  4. A Review of Zero-Day In the Wild Exploitation in 2022 — Google Project Zero, 2023-07

  5. Staying ahead of threat actors in the age of AI — Microsoft Threat Intelligence, 2024-02-14

  6. Claude 3.5 Sonnet Model Card — Anthropic, 2024-06-20

  7. TrojanPuzzle: Covertly Poisoning Code-Suggestion Models — arXiv, 2023-01

  8. CISA Roadmap for Artificial Intelligence — CISA, 2024

  9. State of Software Security 2024 — Veracode, 2024

  10. EU AI Act — European Commission, 2024

主题分类:AI技术 · 金融安全 · 网络安全