编者按:本文为基于2026年4月9日真实市场事件的深度分析。文中涉及的市场数据、公司公告和政策动态均基于公开报道,部分前瞻性判断和推演已明确标注为作者观点。

2026年4月9日,星期三。美国东部时间上午9点31分,开盘仅1分钟,S&P 500软件指数的卖单密集涌出。触发这场恐慌的不是一份财报预警、不是一项反垄断裁决,而是一家AI公司前一晚发布的一篇博客文章和一个模型预览版本。Anthropic 在4月8日晚间公布了 Claude Mythos Preview 模型的技术细节,并同步宣布了代号为 Project Glasswing 的网络安全联盟计划——由12家行业巨头组成的防御性生态。4月9日开盘后,市场迅速消化了这一消息。据 Reuters 报道,截至当日收盘,S&P 500软件指数年内累计跌幅已达约25%。(来源: Reuters, 2026-04-09)

这个数字值得反复咀嚼。约25%的年内跌幅意味着,美国软件行业——这个过去20年全球资本市场最坚固的价值堡垒之一——在不到4个月的时间里蒸发了数万亿美元市值。作为参照,2022年全年纳斯达克综合指数跌幅为33%,那是在美联储激进加息、通胀飙升、科技股泡沫破裂的多重打击下才达到的水平。而2026年初的软件股暴跌,其直接催化剂既非宏观经济恶化,也非行业基本面坍塌,而是一个AI模型的能力跃迁所引发的”颠覆预期重定价”。

这是一个分水岭时刻。它标志着AI大模型的能力发布已从技术社区的内部事件,升级为足以撼动全球金融市场的系统性变量。而当一个模型发布能够在数小时内重新定价整个行业板块时,它就不再仅仅是科技政策的讨论对象——它已经成为金融稳定问题。


第一章:黑色星期三——Claude Mythos 发布当日的市场震荡始末

恐慌的传导链条

要理解2026年4月9日发生了什么,需要先理解市场对AI能力跃迁的定价逻辑已经发生了根本性变化。

在2024年至2025年间,每一次重大AI模型发布——无论是 OpenAI 的 GPT-4o、Google 的 Gemini 2.0 还是 Anthropic 的 Claude 3.5 系列——市场的反应模式是一致的:AI概念股上涨,传统软件股承压但幅度有限,整体叙事是”AI是增量机会”。以2024年5月 OpenAI 发布 GPT-4o 为例,当日 Salesforce 股价仅微跌0.8%,ServiceNow 甚至逆势上涨1.2%。投资者的心理模型是:AI会做大蛋糕,而非吃掉现有蛋糕。

但到了2026年初,这个心理模型开始崩裂。原因并不复杂:AI代理(AI Agent)的实际部署案例开始密集涌现。2025年下半年,Klarna 宣布其AI客服代理已处理了相当于700名全职员工的工作量(来源: Klarna 官方公告, 2024年);Cognition AI 的 Devin 编程代理在多家企业的试点中展示了端到端完成软件开发任务的能力;McKinsey 2025年报告估计,到2030年全球约30%的工作时间可能被AI自动化。从代码生成到客户服务到数据分析,企业客户开始真正用AI代理替代而非辅助软件工作流。当替代效应从理论预期变为季度财报中的可观测变量时,市场对”下一次AI能力跃迁”的反应函数彻底翻转——从”利好科技板块”变为”利空传统软件”。

Claude Mythos 的发布恰好击中了这个翻转后的反应函数的最敏感区域。据 Reuters 报道,Anthropic 新发布的AI模型”重新点燃了市场对AI颠覆传统软件行业的恐惧”,直接导致美国软件股大幅下跌。(来源: Reuters, 2026-04-09)

市场为何将一个模型发布解读为行业存亡威胁

这里需要区分两个层面的问题。

第一个层面是技术层面:Claude Mythos 到底展示了什么能力,使得市场认为传统软件的护城河正在被系统性瓦解?根据 Anthropic 官方公布的信息,Mythos Preview 在多项代理能力基准测试中展示了显著的性能跃迁,尤其是在多步骤任务规划、跨系统工具调用和长时间自主执行方面。虽然 Anthropic 尚未公布完整的基准测试对比数据,但从 Project Glasswing 安全联盟的配套发布规模来看,其内部评估显然认为 Mythos 的代理能力已跨过了一个关键门槛。(来源: Anthropic 官方博客, 2026-04-08)

第二个层面是市场结构层面:为什么一个模型发布能够引发如此剧烈的板块级别抛售?这涉及到当前软件股估值体系中一个被严重低估的脆弱性——几乎所有SaaS公司的估值模型都隐含一个假设:经常性收入(ARR)的净收入留存率(NRR)将保持在110%-130%的历史区间内。根据 KeyBanc Capital Markets 2025年SaaS调查,上市SaaS公司的中位NRR已从2022年的120%下降至2025年的112%。当AI代理展示出能够端到端完成原本需要多个SaaS工具协作才能完成的工作流时,这个本已承压的假设根基被进一步动摇。

更深层的问题在于,软件行业的估值集中度极高。截至2026年3月底,S&P 500软件指数中前10大成分股占据了板块市值的约65%,而这些巨头的产品线——Salesforce 的CRM、ServiceNow 的IT服务管理、Workday 的人力资源管理、Intuit 的财务软件——恰恰覆盖了AI代理最容易渗透的领域。当市场开始重新评估这些领域的长期增长假设时,板块指数的跌幅会被这些权重股的下跌所放大。

被忽视的信号:恐慌不仅来自能力,更来自速度

大多数市场评论聚焦于 Claude Mythos 的能力本身,但真正令机构投资者恐惧的其实是另一个变量:迭代速度

从时间线来看:Claude 3 发布于2024年3月,Claude 3.5 Sonnet 发布于2024年6月,Claude 3.5 升级版发布于2024年10月,Claude 4/Opus 系列在2025年陆续推出,而 Claude Mythos Preview 在2026年4月亮相。每一代之间的能力跃迁幅度在加速,而迭代周期在缩短。这暗示着AI能力曲线的斜率可能比市场此前定价的更为陡峭。

这意味着什么?意味着即使某家传统软件公司今天还能维持其竞争优势,市场也无法确信这种优势在12个月后依然存在。当未来变得如此不确定时,理性的定价策略就是降低估值倍数——而对于一个以高估值倍数为特征的板块来说,倍数压缩的杀伤力远大于盈利下滑。根据 Morgan Stanley 2025年12月的研报,SaaS板块的远期EV/Revenue中位数已从2021年峰值的约18倍降至2025年底的约8倍,而4月9日的暴跌进一步将这一倍数压缩至约6倍。

这正是4月9日发生的事情:不是盈利预期的调整,而是估值框架的重置。


第二章:Mythos 到底带来了什么——从 Project Glasswing 看 AI 能力的质变

Project Glasswing:不只是模型升级,而是生态宣言

2026年4月8日晚间,Anthropic 并非仅仅发布了一个新模型。它同步推出了 Project Glasswing——一个包含 Claude Mythos Preview 模型和由12家行业巨头组成的网络安全联盟的综合性计划。(来源: Anthropic 官方, 2026-04-08)

这个发布策略本身就值得深度解读。Anthropic 选择将一个前沿AI模型的发布与一个企业级安全联盟的成立捆绑在一起,这不是偶然的市场营销决策,而是一个经过精密计算的战略信号:我们的模型已经强大到需要一个专门的安全生态来配套部署。

这种”能力+安全”捆绑发布的策略在AI行业有先例但规模前所未有。2023年 OpenAI 发布 GPT-4 时配套了一份系统安全卡(System Card),2024年 Google DeepMind 发布 Gemini 时附带了安全评估报告。但这些都是单一公司的单方面声明。Project Glasswing 动员了12家外部企业组成联盟,这在规模和制度化程度上是一个质的飞跃。

Project Glasswing 中12家巨头的参与意味着几个关键判断:

第一,AI代理的能力已经跨过了自主行动的门槛。 如果AI仍然只是一个被动的问答工具,你不需要12家公司组成联盟来保护它的运行环境。网络安全联盟的存在本身就是对AI代理自主性的一种确认——当AI代理开始在真实环境中执行多步骤、跨系统的任务时,它的攻击面和风险面也随之呈指数级扩大。MITRE 在2025年发布的 ATLAS(Adversarial Threat Landscape for AI Systems)框架已经识别了超过80种针对AI系统的攻击向量,而自主代理的部署将使这些攻击向量的实际可利用性大幅提升。

第二,Anthropic 正在从模型提供商向基础设施平台转型。 单独发布一个模型是模型公司的行为;围绕模型构建安全生态是平台公司的行为。Project Glasswing 表明 Anthropic 的野心不止于提供最强的AI模型,而是要成为企业级AI代理运行的可信基础设施层。这与 Microsoft 围绕 Azure OpenAI Service 构建企业生态、Amazon 围绕 Bedrock 构建模型部署平台的战略方向一致,但 Anthropic 选择了以安全为核心锚点的差异化路径。

第三,安全不再是事后补丁,而是前置架构。 传统的科技产品发布逻辑是”先发布功能,再修补安全”——Facebook 的”Move Fast and Break Things”是这一逻辑的极端表达。Anthropic 将安全联盟与模型发布同步推出,这在AI行业是一个重要的范式转变。它暗示 Claude Mythos 的能力水平已经到了”不预先建立安全框架就不敢大规模部署”的程度。

从”工具”到”代理”:一个被低估的范式跃迁

理解 Claude Mythos 引发市场恐慌的技术背景,需要理解AI行业正在经历的一个根本性范式转变:从”AI作为工具”到”AI作为代理”。

在”工具”范式下,AI是人类工作流中的一个节点。用户提出问题,AI给出回答;用户输入指令,AI执行单一任务。GitHub Copilot 是这一范式的典型代表——它在程序员编码时提供建议,但编码决策仍由人类做出。AI的价值在于提高单个环节的效率,但整个工作流的编排和决策仍然由人类控制。

在”代理”范式下,AI接管了工作流的编排本身。用户定义目标,AI自主规划步骤、调用工具、处理异常、迭代优化,最终交付结果。Anthropic 在2025年发布的”Computer Use”功能是这一范式的早期实现——Claude 可以直接操作计算机界面完成复杂任务。而 Mythos Preview 据报道将这种代理能力推进到了一个新的层级:更长的自主执行时间、更复杂的多系统协调、更强的异常处理能力。

这个范式跃迁对传统软件行业的威胁是结构性的。在”工具”范式下,AI增强了现有软件的价值——你仍然需要 Salesforce 来管理客户关系,只是 Salesforce 里内嵌了AI助手(Einstein AI)让你用得更高效。但在”代理”范式下,AI可能绕过 Salesforce——如果一个AI代理可以直接从邮件、日历、通话记录中提取客户信息,自主维护客户关系,自动生成销售报告,那么 Salesforce 作为一个中间层的存在价值就被根本性地质疑了。

Salesforce CEO Marc Benioff 在2025年 Dreamforce 大会上曾表示”AI代理是CRM的未来”,但市场的解读恰恰相反:如果AI代理是未来,那么CRM软件本身可能不是。这种认知分歧在4月9日被 Mythos 的发布彻底引爆。

12家巨头联盟的信号价值

关于 Project Glasswing 联盟的具体成员构成,截至本文发稿时 Anthropic 尚未公布完整名单。但联盟的规模——12家行业巨头——本身就是一个重要的信号。作为对比,2024年由 Google、Microsoft、OpenAI 等发起的”Frontier Model Forum”仅有4家创始成员;2023年白宫召集的AI安全自愿承诺也仅涉及7家公司。一个由12家巨头组成的、聚焦于网络安全的AI联盟,其规模和专注度在行业中是前所未有的。

需要指出的是,在联盟成员名单完整公布之前,关于其具体构成的任何推测都应被视为假设。但基于AI代理部署的安全需求逻辑,可以合理推断联盟可能涵盖云基础设施提供商(如 AWS、Azure、GCP 的母公司)、网络安全厂商(如 CrowdStrike、Palo Alto Networks)以及关键行业的企业用户。这一推断的依据是:AI代理的安全部署需要从基础设施层到应用层的全栈防护,单一领域的企业无法独立完成。

对于监管机构而言,这个联盟的成立既是好消息也是坏消息。好消息是行业正在自发组织安全防线;坏消息是,如果行业自己都认为现有的安全框架不足以应对AI代理带来的风险,那么监管框架的滞后程度可能比想象中更严重。


第三章:AI 已深入金融心脏——Moody’s MCP 集成与可信代理框架

Moody’s × Anthropic:信用评估链条的AI化

如果说软件股暴跌是AI风险在资本市场层面的显性表现,那么 Moody’s 与 Anthropic 的深度集成则揭示了一个更深层、更具系统性影响的趋势:AI代理正在嵌入金融基础设施的核心决策链条。

2026年4月9日——与 Claude Mythos 发布和 Project Glasswing 公布几乎同步——Moody’s 宣布通过 MCP(Model Context Protocol)协议将其信用分析工作流原生集成进 Claude 环境。(来源: Business Wire, 2026-04-09)

这条消息的技术含义需要逐层拆解。

MCP 协议是什么? MCP(Model Context Protocol)是 Anthropic 于2024年11月开源发布的一套标准化协议,允许AI模型与外部工具、数据源和系统进行结构化交互。截至2025年底,MCP 已获得包括 Block(Square 母公司)、Replit、Sourcegraph 等公司的采用。它的核心价值在于让AI代理能够以标准化方式访问和操作外部系统,而不是通过定制化的API调用或非结构化的屏幕抓取。如果要做类比,MCP 之于AI代理更接近于 USB 之于外设——它提供了一个标准化的连接接口,但与 HTTP 这样定义了整个互联网通信架构的开放协议相比,MCP 目前仍是一个由单一公司主导的、生态尚在早期的协议。

“原生集成”意味着什么? 当 Moody’s 将信用分析工作流”原生集成”进 Claude 环境时,这意味着 Claude 不再是一个外部的咨询工具,而是成为了 Moody’s 信用分析管道的一个内嵌组件。分析师可以在 Claude 环境中直接调用 Moody’s 的数据、模型和分析框架,AI代理可以在执行信用评估任务时无缝访问 Moody’s 的专有数据集和评级方法论。

信用分析为什么重要? Moody’s 是全球三大信用评级机构之一(另外两家是 S&P Global Ratings 和 Fitch Ratings),其评级结果直接影响超过$70万亿美元全球债券市场的定价和交易。信用分析是金融体系中最关键的信息处理环节之一——它决定了借款人的信用等级,进而决定了借贷成本,最终影响整个经济的资源配置效率。当AI代理开始参与这个环节时,其影响的不是一家公司的效率,而是整个金融体系的信息处理架构。

值得注意的是,Moody’s 并非第一家将AI深度集成进金融分析流程的机构。2025年,Bloomberg 推出了基于其专有数据的 BloombergGPT 升级版;JPMorgan 的 IndexGPT 项目已在内部部署用于投资分析。但 Moody’s 的特殊性在于其评级结果具有准监管性质——许多金融法规直接引用信用评级作为资本要求和投资限制的依据。当AI参与的不仅是分析而是具有准监管效力的评级过程时,其系统性影响的量级是完全不同的。

Trustworthy Agents in Practice:Anthropic 的自我约束框架

与 Moody’s 集成和 Project Glasswing 几乎同步,Anthropic 还发布了一份名为《Trustworthy Agents in Practice》的政策文章,系统性地定义了AI代理在实际部署中的信任、安全与问责机制。(来源: Anthropic 官方, 2026-04-09)

这份文件的发布时机绝非偶然。当 Anthropic 一方面在推动AI代理深度嵌入金融基础设施(Moody’s MCP 集成),另一方面在构建企业级安全生态(Project Glasswing),它需要一个统一的政策框架来回答一个核心问题:当AI代理在关键领域执行自主决策时,谁来确保它是可信的?

《Trustworthy Agents in Practice》的关键词在于”in Practice”——重点在于实践中的可信性,而非理论上的安全性。这个区分至关重要。AI安全领域过去几年充斥着大量理论性的安全原则和伦理框架——从 Asilomar AI Principles(2017年)到 OECD AI Principles(2019年)到 EU AI Act(2024年正式通过)——但在实际部署中,这些原则往往因为缺乏可操作性而沦为合规清单。Anthropic 选择在推出其最强模型和最深企业集成的同一天发布这份实践性框架,表明它意识到:AI代理的信任问题不是一个可以推迟解决的理论问题,而是一个必须在部署当天就给出答案的工程问题。

金融AI化的系统性风险图谱

将 Moody’s MCP 集成、Project Glasswing 和 Trustworthy Agents 框架放在一起看,一个清晰的风险图谱浮现出来:

风险层级1:操作风险。 当AI代理参与信用分析时,模型的错误判断可能导致错误的信用评级,进而影响债券定价。这是最直接、最容易理解的风险,也是最容易通过传统风控手段(人工复核、阈值限制)来缓解的风险。2024年 Air Canada 的聊天机器人错误承诺退票政策并被法院判定公司需承担责任的案例,是AI操作风险在低风险场景中的一个预演。在信用评级这样的高风险场景中,操作风险的后果将严重得多。

风险层级2:同质化风险。 如果多家金融机构都使用同一个AI模型(或少数几个模型)来进行信用分析,那么它们的判断可能会高度同质化。当所有人同时看多或看空同一类资产时,市场的自我纠错机制就会失效,波动性会被放大。这类似于2008年金融危机中所有银行使用相同的风险模型(VaR, Value at Risk)导致的系统性盲区——当模型假设在极端情况下同时失效时,整个体系的风险敞口被严重低估。英格兰银行前行长 Mervyn King 曾将此称为”模型单一文化”(model monoculture)的风险,而AI时代的模型集中度可能远超传统统计模型时代。

风险层级3:不透明性风险。 AI模型的决策过程本质上是不透明的。即使 Anthropic 提供了可信代理框架,监管机构和市场参与者也很难完全理解AI代理在信用评估中的具体推理路径。EU AI Act 将信用评估归类为”高风险AI应用”,要求提供可解释性。但当前大语言模型的可解释性技术(如注意力可视化、链式思维提示)仍远未达到金融监管所需的审计级别透明度。

风险层级4:速度风险。 这是最被低估的风险。AI代理可以在毫秒级别处理信息并做出决策,而人类监管者的反应时间是以天、周甚至月计算的。2010年5月6日的”闪崩”(Flash Crash)中,道琼斯指数在36分钟内暴跌约1000点,原因之一就是高频交易算法的连锁反应速度超出了人类干预能力。当AI代理在金融体系中的渗透率达到临界点时,类似的速度风险可能在信用评估、风险定价等更广泛的领域重现。


第四章:从技术问题到金融稳定问题——监管层被迫升级应对层级

一个模型发布如何成为系统性风险事件

让我们回到4月9日的市场震荡,重新审视一个根本性问题:为什么一个AI模型的发布能够触发系统性的市场波动?

传统的金融监管框架将系统性风险的来源分为几类:宏观经济冲击(利率变动、经济衰退)、金融机构风险(银行倒闭、流动性危机)、市场结构风险(闪崩、流动性枯竭)。AI模型发布不属于其中任何一类,但4月9日的事件表明,它的市场冲击力已经可以与这些传统风险源相提并论。

这种冲击力的来源可以从三个维度理解:

维度1:预期冲击。 AI能力的跃迁改变了市场对整个行业未来现金流的预期。根据 Goldman Sachs 2025年的研究,AI自动化可能影响全球约3亿个全职工作岗位,其中知识工作者——也就是传统软件的核心用户群——受影响最大。当投资者相信AI代理可以替代传统软件时,他们会立即下调软件公司的长期增长假设,导致估值倍数压缩。这种预期冲击的速度是即时的——信息发布后几分钟内就会反映在股价中。

维度2:关联冲击。 软件行业是美国股市中权重最大的板块之一。截至2026年3月,信息技术板块占 S&P 500 总市值的约32%。其市值变动会通过指数基金、ETF和衍生品市场传导至整个金融体系。当软件指数年内跌幅达到约25%时,持有这些股票的养老基金(如 CalPERS,管理约$5000亿资产)、共同基金和对冲基金都会受到影响,进而可能触发赎回潮、追加保证金等连锁反应。

维度3:不确定性冲击。 AI能力的进化路径是高度不确定的。没有人能准确预测下一个AI模型会带来什么能力突破,也没有人能准确评估这种突破对各行业的影响。芝加哥期权交易所(CBOE)的VIX指数在4月9日当天显著跳升,反映了市场不确定性的急剧上升。这种根本性的不确定性会推高市场的风险溢价,导致波动性上升。

当这三个维度的冲击叠加时,一个AI模型的发布就具备了系统性风险事件的所有特征:大规模、高速度、跨市场传导、难以预测。

现有监管框架的三重滞后

面对AI带来的金融稳定挑战,现有监管框架暴露出三重结构性滞后:

第一重滞后:认知滞后。 直到4月9日的市场震荡之前,大多数金融监管机构仍然将AI视为一个”科技政策问题”。美国的AI监管讨论主要集中在 FTC 的消费者保护框架和 NIST 的AI风险管理框架(RMF 1.0, 2023年发布)中,而财政部和美联储关注的是银行资本充足率、市场流动性、系统重要性金融机构。AI模型的能力水平不在它们的雷达屏幕上。但4月9日的事件表明,AI能力跃迁已经成为一个足以影响金融稳定的宏观变量。

第二重滞后:工具滞后。 即使监管机构认识到了AI的金融稳定影响,它们也缺乏有效的监管工具。现有的金融监管工具——巴塞尔III的资本要求、美联储的压力测试(CCAR/DFAST)、多德-弗兰克法案的杠杆限制——都是针对传统金融风险设计的。它们无法评估一个AI模型的能力跃迁会对市场产生多大冲击,也无法预防AI同质化带来的系统性风险。

第三重滞后:速度滞后。 金融监管的决策周期是以月和季度计算的——从发现问题到制定规则到实施执行,通常需要1-3年。EU AI Act 从提案到正式通过历时3年(2021-2024)。而AI模型的迭代周期是以月甚至周计算的。当监管者还在讨论如何监管上一代AI模型时,下一代模型可能已经发布并引发了新的市场冲击。

对立视角:市场自我调节 vs. 监管干预

在讨论监管应对时,必须认真呈现两个对立的视角。

视角1:市场自我调节论。 这一派的论据比表面看起来更有力。首先,4月9日的软件股暴跌恰恰是市场在有效运作的证据——市场识别了AI对传统软件行业的颠覆威胁,并迅速重新定价,这正是资本市场应该做的事。历史上,市场成功消化了多次技术颠覆:1990年代互联网对传统零售的冲击、2000年代智能手机对PC产业链的重构、2010年代云计算对传统IT的替代。每一次都伴随着剧烈的股价调整,但最终市场找到了新的均衡,而政府干预往往只会延缓这种必要的调整。

其次,行业自我监管的能力不应被低估。Anthropic 自身发布的 Trustworthy Agents 框架和 Project Glasswing 安全联盟表明,AI公司有动力也有能力建立安全规范——因为安全事故对它们自身的商业利益损害最大。正如互联网行业在没有政府强制的情况下发展出了 HTTPS、OAuth 等安全标准,AI行业也可能通过市场竞争和行业协作自发建立有效的安全框架。

第三,过度监管的风险是真实的。如果美国对AI模型发布施加类似金融产品的监管要求(预披露、影响评估等),可能会将AI创新推向监管更宽松的国家,削弱美国在AI领域的竞争优势。在中美AI竞争的大背景下,这不仅是经济问题,更是国家安全问题。

视角2:系统性风险论。 这一派认为,AI引发的市场波动具有系统性风险的特征——它是跨市场传导的、难以预测的、可能自我放大的。市场的自我调节机制在面对系统性风险时往往会失效,因为个体理性行为(如恐慌抛售)会导致集体非理性结果。2008年金融危机就是最鲜明的例证:每一家银行单独来看都在理性地管理自己的风险敞口,但它们的集体行为导致了整个金融体系的崩溃。

更关键的是,AI嵌入金融基础设施(如 Moody’s 的信用分析)带来的风险不同于简单的股价波动——它涉及金融体系的信息处理架构本身。当AI参与的不仅是交易执行而是信用评级、风险定价等基础性功能时,AI失效的后果将远超任何单一板块的涨跌。

此外,行业自我监管存在结构性局限。在竞争压力下,”安全竞次”(race to the bottom)是一个真实的风险——当竞争对手在快速部署AI代理时,没有哪家公司愿意因为安全顾虑而主动放慢脚步。Anthropic 今天可能是AI安全的标杆,但如果市场奖励的是速度而非安全,这种标杆地位能维持多久?

我的判断: 两种视角都有实质性的道理,简单地站在任何一边都是智识上的懒惰。但在权衡之后,我认为在当前阶段,系统性风险论更具说服力,原因有三:第一,AI能力的进化速度远超市场参与者的学习和适应速度,历史上的技术颠覆(互联网、云计算)的渗透周期是以十年计的,而AI代理的渗透可能以年计,市场的自我调节机制可能来不及发挥作用;第二,AI在金融基础设施中的渗透正在创造新类别的关联性和同质化风险,这些风险在传统市场框架中没有对应物,市场参与者缺乏定价这些风险的经验和工具;第三,”安全竞次”问题无法通过市场机制自行解决,它需要外部约束来改变博弈结构。

因此,监管干预是必要的,但其形式应该是”护栏”而非”路障”——设定底线标准和透明度要求,而非限制AI能力的发展方向。


第五章:AI 监管的”沃尔克时刻”——当模型发布等同于市场事件

历史类比的启示与局限

2008年金融危机后,时任美联储主席保罗·沃尔克推动了以其名字命名的”沃尔克规则”(Volcker Rule,2013年最终版),限制银行从事自营交易。沃尔克规则的核心洞察是:当某些金融活动的风险可能传导至整个金融体系时,仅靠市场纪律和行业自律是不够的,需要结构性的监管干预。

AI对金融稳定的威胁与2008年前的衍生品市场有着值得注意的相似性:

  • 复杂性:就像CDO(担保债务凭证)的复杂结构让监管者和市场参与者都无法准确评估其风险一样,AI模型的决策过程也是不透明的。
  • 关联性:就像2008年前金融机构通过衍生品市场高度关联一样,AI正在成为连接不同金融机构和市场的新型关联通道。
  • 速度:就像高频交易放大了市场波动的速度一样,AI代理的决策速度远超人类的反应能力。

但类比也有其重要局限。2008年金融危机的风险源是金融体系内部的——过度杠杆、不透明的衍生品、扭曲的激励机制。而AI带来的风险源是金融体系外部的——AI能力的跃迁发生在科技公司的实验室里,但其冲击波却传导至整个金融市场。这意味着传统的金融监管工具(资本要求、杠杆限制)可能不足以应对AI风险,需要全新类别的监管工具。此外,2008年的风险是”已知的未知”——衍生品的风险类别是已知的,只是规模被低估了;而AI的风险更接近”未知的未知”——我们甚至不确定AI能力的下一次跃迁会以什么形式影响金融体系。

大多数人没看到的:AI 作为”元风险”

这里要触达本文的核心洞察层——大多数人没看到的东西。

4月9日的市场震荡暴露的不仅是AI对某个特定行业的颠覆威胁,更是AI作为一种”元风险”(meta-risk)的本质。所谓”元风险”,是指一种能够改变其他风险的性质和规模的风险。气候变化是另一个”元风险”的例子——它不仅本身是一种风险,还改变了农业风险、保险风险、地缘政治风险的性质和规模。

AI的”元风险”特征体现在三个层面:

  • AI不仅创造了新的风险(如AI模型失效风险),还改变了现有风险的性质。例如,当AI代理参与信用评估时,信用风险的评估方式和传导机制都发生了变化——风险不再仅仅来自借款人的偿付能力,还来自评估借款人偿付能力的AI模型的可靠性。
  • AI不仅增加了风险的种类,还改变了风险的时间尺度。在AI时代,行业颠覆的时间尺度从”年”压缩到了”月”甚至”周”,这意味着所有基于历史数据和长期趋势的风险模型——包括保险精算模型、养老金负债模型、银行贷款损失模型——都可能系统性地失效。
  • AI不仅影响了个别市场参与者,还改变了市场本身的信息处理架构。当越来越多的市场参与者使用AI来分析信息和做出决策时,市场的集体行为模式会发生根本性变化。如果所有参与者的AI模型都从相同的数据中得出相似的结论,市场的多样性——也就是其抗脆弱性的来源——就会被侵蚀。

这种”元风险”的性质意味着,AI监管不能仅仅是在现有金融监管框架上”打补丁”,而需要一种全新的监管思维——一种能够应对风险本身正在被重新定义的监管思维。

Anthropic 的双重角色:风险制造者与风险管理者

4月9日的事件还揭示了一个深刻的悖论:Anthropic 同时扮演着风险制造者和风险管理者的双重角色。

作为风险制造者,Claude Mythos 的发布直接触发了市场震荡。Anthropic 的技术突破是市场恐慌的源头。

作为风险管理者,Anthropic 同日发布了 Trustworthy Agents 框架和 Project Glasswing 安全联盟,试图为AI代理的安全部署建立规范。它还通过与 Moody’s 的 MCP 集成,展示了AI如何以受控的方式嵌入金融基础设施。

这种双重角色在科技行业并不罕见——Meta 既是社交媒体问题的制造者也是其(声称的)解决者,Google 既是数据隐私挑战的来源也是隐私技术(如差分隐私、联邦学习)的推动者。但在金融稳定领域,这种双重角色的紧张关系更加尖锐,因为赌注更高——金融系统的失稳可能影响每一个人的储蓄、就业和生活水平。

监管机构需要认真思考的问题是:是否应该允许AI模型提供商同时担任AI风险的定义者和管理者? 当 Anthropic 定义什么是”可信代理”时,它实际上是在设定AI安全的标准。但作为一家以推动AI能力前沿为核心业务的公司,它的安全标准是否会系统性地偏向于”允许更多部署”而非”限制风险敞口”?

这不是对 Anthropic 动机的质疑——从已有证据来看,Anthropic 在AI安全方面的投入是业界领先的,其 Responsible Scaling Policy(RSP)是目前最具体的AI安全自我约束框架之一。但结构性的利益冲突不会因为参与者的善意而消失。正如会计行业在安然丑闻后被迫将审计和咨询业务分离一样,AI行业可能最终也需要某种形式的”能力开发”与”安全评估”的结构性分离。这需要通过独立的、有强制力的外部监管来实现。

前瞻:模型发布作为”市场事件”的新常态

展望未来,4月9日不太可能是最后一次AI模型发布引发市场震荡。随着AI能力继续快速进化,每一次重大模型发布都可能成为市场重新定价的触发点。

这意味着几个具体的预判:

预判1:AI模型发布将被纳入金融市场的”事件日历”。 就像市场参与者密切关注美联储议息会议(FOMC,每年8次)、非农就业数据发布和重要公司财报日一样,他们将开始密切关注 Anthropic、OpenAI、Google DeepMind 等公司的模型发布日程。AI模型发布日将成为期权隐含波动率上升的日子。

预判2:金融监管机构将建立AI能力评估团队。 财政部和美联储将需要具备AI技术评估能力的专业团队,能够在AI模型发布前或发布后迅速评估其对金融稳定的潜在影响。英格兰银行已在2025年设立了AI与金融稳定研究小组,美联储可能需要建立类似但规模更大的机构。

预判3:AI公司将面临类似金融机构的信息披露要求。 当AI模型的能力水平成为影响金融稳定的变量时,监管机构可能会要求AI公司在重大模型发布前进行某种形式的预披露或影响评估,类似于上市公司的重大信息披露义务(Regulation FD)。

预判4:跨监管机构的AI风险协调机制将建立。 AI风险横跨科技监管和金融监管的传统边界,需要一个跨机构的协调机制来统筹应对。美国可能会在金融稳定监督委员会(FSOC)的框架下设立AI风险工作组,或者建立全新的协调机制。FSOC 在2024年年度报告中已将AI列为”新兴风险”之一,但尚未建立专门的应对机制。

对投资者和从业者的启示

最后,回到”so what”——这一切对读者意味着什么?

对投资者: AI能力跃迁已经成为一个不可忽视的系统性风险因子。传统的行业分析框架——基于历史增长率、竞争格局、护城河分析——在AI时代可能系统性地低估颠覆风险。投资者需要在投资组合中纳入”AI颠覆情景”的压力测试,评估每一个持仓在AI代理全面渗透后的价值。约25%的年内跌幅是一个警钟:市场重新定价的速度可能远快于你调整仓位的速度。具体而言,建议关注三个指标:(1)持仓公司的收入中有多少比例来自AI代理可替代的工作流;(2)持仓公司是否拥有AI代理难以复制的独特数据资产或网络效应;(3)持仓公司的客户合同中是否包含长期锁定条款,能够延缓客户向AI代理迁移的速度。

对软件行业从业者: 4月9日的市场反应可能过度了——并非所有软件公司都会被AI代理替代。但方向是明确的:纯粹的”工具层”软件(提供单一功能的SaaS)面临的颠覆风险最高,而拥有独特数据资产(如 Bloomberg 的金融数据)、深度行业know-how(如 Epic Systems 的医疗记录系统)或强大网络效应(如 Slack 的企业通讯网络)的软件公司更有可能在AI时代存活甚至繁荣。关键问题是:你的公司是在AI价值链中占据了不可替代的位置,还是正在成为AI代理可以绕过的中间层?

对监管者: AI风险已经不是一个可以从容讨论的理论问题。4月9日的市场震荡表明,AI能力跃迁可以在数小时内对金融市场产生系统性冲击。监管框架的更新速度必须与AI能力的进化速度相匹配——这可能意味着从传统的”规则制定”模式转向更灵活的”原则+沙盒”模式,在保持监管弹性的同时建立基本的风险防线。英国 FCA 的监管沙盒和新加坡 MAS 的AI治理框架可以作为参考模板。

对AI公司: Anthropic 在4月8-9日同步发布能力突破(Claude Mythos)和安全框架(Trustworthy Agents、Project Glasswing)的做法值得行业借鉴。在AI能力越来越具有市场冲击力的时代,AI公司需要认识到自己已经不仅仅是技术公司——它们的产品发布已经具有了类似央行政策公告的市场影响力,需要以相应的责任感和审慎态度来管理这种影响力。


结语

2026年4月9日可能会被未来的金融史学家标记为一个转折点——不是因为软件股跌了多少,而是因为它第一次清晰地展示了AI能力跃迁作为金融稳定变量的现实。

Claude Mythos 的发布、Project Glasswing 的成立、Moody’s MCP 集成的公布、Trustworthy Agents 框架的推出——这四个几乎同日发生的事件,共同勾勒出了AI与金融体系交汇的全景图:AI的能力在加速进化,AI的部署在加速渗透,AI的风险在加速积累,而AI的监管在加速滞后。

这四个”加速”之间的张力,定义了未来数年金融监管的核心挑战。解决这个挑战需要的不是更多的原则声明或行业自律倡议,而是一种全新的监管范式——一种能够以AI的速度理解AI、评估AI、约束AI的监管范式。

这是AI监管的”沃尔克时刻”。问题是,谁将成为AI时代的沃尔克?


参考资料

  1. US software stocks fall as Anthropic’s new AI model revives disruption fears — Reuters, 2026-04-09
  2. Project Glasswing: Introducing the Claude Mythos Preview and Cybersecurity Alliance — Anthropic, 2026-04-08
  3. Moody’s Integrates Credit Analysis Workflows into Claude via MCP Protocol — Business Wire, 2026-04-09
  4. Trustworthy Agents in Practice — Anthropic, 2026-04-09
  5. Introducing the Model Context Protocol — Anthropic, 2024-11-25
  6. The Potentially Large Effects of Artificial Intelligence on Economic Growth — Goldman Sachs, 2023-03-26
  7. FSOC 2024 Annual Report — U.S. Department of the Treasury, 2024-12
  8. EU AI Act: First Regulation on Artificial Intelligence — European Parliament, 2024-03-13

主题分类:监管政策