当政府开始审查AI模型:CAISI协议扩展背后,一个新权力结构正在成形

2026年5月6日

2026年5月5日,美国商务部下属的AI标准与创新中心(Center for AI Standards and Innovation,CAISI)宣布与Google DeepMind、Microsoft和Elon Musk的xAI签署协议,允许美国政府在AI模型公开发布前对其进行安全评估。

这是对2024年CAISI与OpenAI和Anthropic签署的原有协议的扩展。那些旧协议,还是拜登时代的产物,现在已经被重新谈判,以「反映商务部长Howard Lutnick的指示和美国AI行动计划」。

表面上,这是一个监管技术事件:五家主要AI公司加入了同一个安全评估机制。

但在这个宣布背后,有一个更深的问题值得解读:当「哪家AI公司被允许发布模型」这个权力,开始集中在政府手中,谁被包含和谁被排除,本身就是一种战略信号。

这不是新闻,这是权力地图的重绘。

用一句话描述正在发生的事:美国正在建立一个「可信AI」的白名单——而「可信」的定义,由美国政府掌握。


一、CAISI是什么?为什么现在重要?

理解这个故事,先要理解CAISI的历史轨迹。

CAISI(Center for AI Standards and Innovation)是美国国家标准与技术研究院(NIST)的下设机构,隶属于商务部。它前身是拜登政府在2023年AI行政令框架下建立的AI安全研究所(US AI Safety Institute,AISI)。

在拜登时代,AISI的核心逻辑是:前沿AI模型在公开发布前,应接受自愿性安全测试,重点关注模型在生物武器辅助、网络攻击、化学武器方面的「危险能力」。它不是强制性机构,依赖的是科技公司的自愿合作。

当特朗普政府接管商务部,AISI更名为CAISI。名称变化折射出方向调整:从「安全(Safety)」到「标准与创新(Standards and Innovation)」。安全评估的功能依然存在,但优先级从「防止AI造成伤害」变成了「确保美国AI在技术竞争中领先」。

这次扩展协议是CAISI在新政府框架下的第一次大规模动作。签署方包括:

  • 原有成员(2024年拜登时代):OpenAI、Anthropic
  • 新加入成员(2026年5月):Google DeepMind、Microsoft、xAI

至此,美国五大前沿AI研究机构——OpenAI、Anthropic、Google DeepMind、Microsoft、xAI——全部纳入同一个预发布审查机制。

从覆盖范围看,这是美国政府有史以来对AI前沿研究能力最系统性的官方「登记」。


二、「被包含」的意义:入场券,还是枷锁?

对于被纳入协议的科技公司,这是一把双刃剑,利弊都很具体。

利好层面——政府背书的战略价值

签署协议意味着「被认可为美国AI力量的重要组成部分」。在当前地缘政治格局中,这种隐性背书具有非常实际的价值:

第一,联邦采购优势。在美国政府及军事AI采购决策中,是否参与CAISI框架,很可能成为一个隐性评分标准。已有先例:Anthropic在被国防部列入供应链风险名单后,依然能在白宫举行「富有成效」的会面,部分原因正是其在CAISI体系内的成员身份。

第二,国际合作谈判筹码。各国政府与AI公司谈判合作时,「是否受美国政府监管框架认可」将成为可信度评估的组成部分。CAISI成员身份是一种软性认证。

第三,监管豁免空间。加入自愿框架的企业,往往在后续的强制性监管中享有更大的缓冲空间——这是监管博弈中普遍存在的「主动合规」溢价。

对Microsoft和Google而言,此次加入还有另一层含义:完成与OpenAI、Anthropic的对齐。此前两家公司不在CAISI框架内,意味着它们的前沿模型(Gemini系列、Copilot底层模型)在「政府背书体系」中存在空白。现在这个空白被填补。

对xAI而言,加入CAISI是一个极具象征意义的举动。Elon Musk在OpenAI诉讼仍在进行、自身政治立场颇具争议的背景下,选择将Grok系列模型纳入政府安全评估,释放出一个明确信号:无论在其他领域如何高调反建制,在AI监管这个问题上,xAI愿意进入规则框架。

风险层面——时间延迟与约束条件的蔓延

预发布审查意味着时间延迟。对于AI竞争瞬息万变的市场,每一周的发布延迟都可能影响市场先机。在模型迭代速度已经以「月」为单位的今天,审查周期的长短将直接影响竞争格局。

更深层的风险是:当政府审查成为模型发布的「入场券」,「通过审查」的隐性条件将逐渐成为一种产品约束。今天是「危险能力评估」,明天可能是叙事中立性审查,后天可能是「国家安全合规性认证」。

评估标准如何确定?由谁制定?当审查结果是「这个模型有某方面不符合要求」时,修改要求是什么?这些问题,目前没有公开答案。

这条路走向哪里,在很大程度上取决于CAISI的演化方向,以及在不同政治周期中,谁在主导这个演化。

有一个历史先例值得参考:出口管制(Export Control)体系。美国通过《出口管理条例》(EAR)和《国际武器交通条例》(ITAR),将哪些技术可以出口给哪些国家的决定权集中在商务部/国务部手中。这套体系在半导体领域已经产生了深刻影响——A100/H100芯片出口限制,直接改变了全球AI计算格局。CAISI的预发布审查机制,从逻辑结构上,正在向「AI模型版出口管制」演化。

如果这个方向成真,「哪家公司的AI模型被允许在美国市场销售」这个权力,将落在联邦机构手中——而不是市场。


三、「被排除」的意义:Mistral、DeepSeek、Meta去哪里了?

这次宣布的名单,同样值得关注的是没有出现的名字

Mistral,欧洲最具代表性的独立前沿AI研究机构,不在名单上。这家法国公司在欧盟AI法案框架下运营,与美国CAISI机制分属两套不同的治理体系。从现实来说,邀请欧洲公司加入美国政府的预发布审查体系,本身就存在主权层面的复杂性——欧洲政府不太可能允许本国前沿AI模型先接受美国政府审查再发布。

DeepSeek,中国最具代表性的开源模型研究团队,自然不在其中。这不需要解释,当美国国务院已将中国AI作为安全威胁对象发出警告的背景下,中国AI公司不可能进入CAISI框架。

Meta,美国最大的开源模型发布者,同样缺席。这个缺席最值得思考。

Meta是Llama系列的发布者,代表的是「开源优先」的AI战略——这与CAISI框架的预发布审查逻辑存在根本冲突:开源模型一经发布,任何主体都可以使用、修改和再分发,「预发布审查」在这种情况下意味着什么?

如果CAISI审查了Meta的Llama模型但发现了问题,Meta是否会因此不发布开源版本?如果Meta依然发布,审查的实际约束力在哪里?

Meta的缺席,可能不是被排除,而是「开源AI与政府审查框架的逻辑矛盾」的反映。它是一个政策空白,而不是一个政策决定。


四、真正的背景:Claude Mythos的幽灵

理解这个宣布的全部含义,需要回顾一段背景信息。

2026年4月初,Anthropic宣布发布Claude Mythos Preview——一个在网络安全漏洞识别方面能力出众的模型。Anthropic将其发布限制在特定企业范围内,作为「Project Glasswing」网络安全计划的一部分。

Mythos的独特性在于:它能大规模发现软件安全漏洞。这是一把双刃剑——可以用于防御,也可以用于攻击。Anthropic CEO Dario Amodei甚至公开警告,Mythos发现的数万个漏洞需要在「中国AI追赶上来之前」完成修补,否则将面临6到12个月的危险窗口期。

就在Mythos宣布后不久,白宫邀请Dario Amodei会面。同期,国防部将Anthropic列为「供应链风险」。白宫称会面「富有成效」,Anthropic同样如此描述。

CNBC报道显示,正是Mythos的出现,加速了白宫讨论建立更广泛AI工作组的进程。

这说明了什么?当一个AI模型具备显著的国家安全相关能力时,政府不会等待,会主动建立接触和审查机制。CAISI的扩展,是这种逻辑的制度化表达。

从这个角度看,此次协议扩展不只是「监管跟进」,而是美国政府在面对Mythos这类「双刃剑模型」后,系统性建立预发布评估机制的举措。它传递的核心信息是:我们不会禁止你发布,但我们要先看一眼。


五、Trump政府的AI监管转向:从「放松管制」到「主导标准」

Trump政府上任后的AI政策,经历了一个微妙但关键的演化。

上任初期,特朗普签署行政令,撤销了拜登时代多项AI安全要求,强调「AI监管过度会损害美国竞争力」。这一立场让外界普遍预期:美国将在AI领域走向最小化监管,「让市场决定」。

但CAISI的动作揭示了一个更复杂的图景:Trump政府不是在「不监管AI」,而是在「以不同方式监管AI」——从侧重安全风险,转向侧重竞争标准。

这是一个关键区别:

拜登时代的AI监管框架,将「安全」(防止AI被用于生物武器研发、大规模欺诈、虚假信息传播等)置于核心,安全评估是目的本身。

Trump的AI行动计划,将「美国AI领导地位」置于核心,安全评估成为维护竞争优势的工具,而非目的本身——评估的重点是「这个模型是否损害了美国的战略利益」,而非「这个模型是否存在社会安全风险」。

CAISI更名本身就折射出这一转向:「Safety」消失了,「Standards and Innovation」替代了它。监管依然在,但驾驶者换了。

这意味着,CAISI的预发布评估,不太可能以「这个模型的观点不够中立」为由阻止发布,但可能以「这个模型的某些能力需要限制访问以保护美国国家安全」来影响发布条件。

监管工具没有消失,只是换了主语——从保护公民,变成保护竞争优势。


六、白宫工作组还在路上:更大的不确定性

CNBC报道的另一个细节值得注意:CAISI协议是已经落地的,但白宫正在考虑的更广泛AI工作组,尚未成立

这个工作组的设想包括:将科技高管和政府官员集合在一起,探讨预发布审查程序,可能通过行政令建立,涵盖的范围将远超CAISI的自愿协议框架。白宫告诉CNBC,任何政策宣布都将直接来自特朗普总统本人——言下之意是:目前的讨论仍处于内部阶段,没有最终定案。

白宫工作组与CAISI协议之间存在一个重要的差异:性质。CAISI的协议是自愿性的——科技公司选择参与,政府无法强制要求发布前审查。但如果行政令将预发布评估变成强制性要求,整个AI发布生态的规则将从根本上改变。

自愿框架与强制框架的核心区别是:

  • 自愿框架下,不参与的代价是「失去背书」,但不影响发布权利
  • 强制框架下,不参与等于「无法发布」,政府获得事实上的发布否决权

强制性审查 vs. 自愿性合作:这一步的跨越,才是真正改变游戏规则的转折点。 目前的CAISI协议扩展,距离这个转折点还有相当距离——但方向已经清晰。


六点五、一个更深层的问题:什么样的AI被认定为「安全」?

在讨论CAISI框架的权力结构时,还有一个更根本的问题被系统性地回避了:

「安全」的定义是什么?谁来定义?

目前CAISI的评估框架,沿用了拜登时代AISI建立的几大核心维度:大规模杀伤性武器(CBRN)辅助能力、重大网络安全攻击能力、对民主选举的干预能力。这些是相对明确的「硬边界」,争议不大。

但随着AI能力边界的扩展,评估框架必然面临需要扩展的压力。比如:

一个能够大规模生成以假乱真政治内容的模型,算「不安全」吗?在拜登时代,答案可能是「是」;在Trump时代,答案可能变成「这取决于内容的具体倾向」。

一个在劳动力市场替代效应方面远超同类的模型,算「不安全」吗?一个在国家安全威胁情报分析上超越CIA分析师的模型,到底是「武器」还是「工具」?

这些问题没有中立答案。而CAISI负责回答它们的机构,是Commerce Secretary Howard Lutnick领导的商务部——这是一个政治任命的行政机构,而非独立监管机构。

当「安全」的定义本身是政治性的,「安全审查」就成了政治工具。 这不是批评特定政府,而是指出这套架构的内在逻辑——无论是哪个政党执政,都会面对同样的诱惑:用「安全」名义,为自己偏好的AI生态背书,为不符合偏好的AI设置障碍。

理解这一点,才能理解为什么CAISI协议的「自愿性」如此关键——它目前还不是政治工具,因为企业可以不参与。一旦变成强制性,这个逻辑将全面激活。


七、地缘政治维度:欧洲和中国如何解读这份名单?

从地缘政治视角,CAISI协议的真正受众不只是科技公司,还有国际社会。

对欧洲而言,这份名单发出了一个信号:美国正在通过政府-产业协作机制,建立AI能力评估的「美国标准」。欧盟已有AI法案(AI Act),如果美国形成自己的强制性预发布审查体系,将出现两套不同的合规框架。欧洲公司(如Mistral)将面临双重合规压力:既要满足欧盟AI法案的要求,又可能需要应对美国市场的CAISI类型审查。

更深层的问题是:欧盟不太可能接受美国政府审查欧洲AI模型作为在美发布的前提条件。这会推动两套互不兼容的「可信AI」认证体系在全球并行。

对中国而言,这份名单是对中国AI体系的隐性排斥声明。CAISI的五个成员,没有一个是中国公司,也没有使用中国训练数据的模型。这不只是监管决定,而是技术生态的战略隔离。

在DeepSeek在全球引发关注、中美AI竞争日趋激烈的背景下,美国政府通过「被允许审查的名单」来定义「可信的AI」,本质上是在争夺AI合法性标准的定义权——全球范围内,哪个国家、哪个机构有资格认证一个AI模型是「安全且可信的」?

谁定义「安全」,谁就定义「可以存在」。这是国际规则制定竞争的AI版本。


八、被忽视的开放问题:审查结果,谁能看到?

在所有关于CAISI协议的报道中,一个问题几乎没有被讨论:

政府审查的结果,是否对公众公开?

如果CAISI发现某个模型存在潜在安全风险,这个发现会以何种形式披露?是完整报告、摘要报告,还是完全保密?如果是保密,如何让公众相信「审查是有效的」?

这是监管透明度的根本问题。一个不公开评估标准、不公开评估结果的审查机制,在保护公众利益方面的实际效果,与「没有审查」的区别,只在于政府是否「看过了」。

此前,拜登时代的AISI有公开发布安全评估报告的先例——包括对GPT-4、Llama 2等模型的部分评估结果。这些报告虽然不完整,但至少提供了一种公众问责机制:研究人员、记者、政策制定者可以审视政府的评估逻辑是否站得住脚。

但CAISI在新政府框架下,是否将延续这种透明度,目前尚不明确。有一种可能是:评估结果以「国家安全」为由被完全列为机密。如果这个方向成真,CAISI的协议将成为一个单向的权力通道——政府可以看到所有,但公众看不到政府在评估什么,也看不到评估结果。

公众无法评估的「安全审查」,本质上是政府对AI能力的单方面情报收集——对科技公司是合规负担,对公众是透明度缺失,对政府是战略优势。

没有透明度的审查,是权力而非问责。 这个区别,在接下来的制度演化中,将是AI治理正当性最核心的争议点之一。


结语:这不是监管,这是权力秩序的建立

CAISI协议的扩展,表面是技术监管,实质是一种权力秩序的建立。

它同时在五个维度运作:

  1. 市场准入维度:加入者获得「被美国政府背书」的隐性认证,影响采购和合作决策
  2. 产品约束维度:预发布审查将逐渐成为模型设计的隐性边界,改变研发优先级
  3. 竞争排除维度:非成员体系(中国AI、开源AI、欧洲AI)被排除在这套「可信」框架之外
  4. 标准主导维度:美国通过实践建立AI评估的事实标准,影响全球合规体系
  5. 战略通道维度:政府获得了在模型发布前了解前沿AI能力的制度性渠道

这五件事,没有一件是通过立法完成的。但它们合在一起,比任何一部AI法案都更直接地影响了AI产业的实际运行规则。

CAISI协议的真正价值,不在于它今天能做什么,而在于它确立了一个先例:政府有权在AI模型公开发布前「看一眼」。

这个先例一旦确立,它将随着政府意志的变化,以无限多种方式延伸和强化。

它不是法律,但它正在成为规则。而规则,往往比法律更持久。


参考资料

  1. CNBC — “Trump admin moves further into AI oversight, will test Google, Microsoft and xAI models” (2026-05-05): https://www.cnbc.com/2026/05/05/ai-oversight-trump-google-microsoft-xai.html
  2. NIST CAISI官方公告 — “CAISI Signs Agreements Regarding Frontier AI National Security Testing” (2026-05-05): https://www.nist.gov/news-events/news/2026/05/caisi-signs-agreements-regarding-frontier-ai-national-security-testing
  3. CNBC — “Anthropic CEO Dario Amodei meets Trump administration at White House to discuss Mythos” (2026-04-17): https://www.cnbc.com/2026/04/17/anthropic-dario-amodei-trump-mythos.html
  4. The New York Times — “White House considers vetting AI models before public release” (2026-05-04): https://www.nytimes.com/2026/05/04/technology/trump-ai-models.html
  5. CNBC — “Pentagon lists Anthropic as supply chain risk” (2026-05-01): https://www.cnbc.com/2026/05/01/pentagon-anthropic-blacklist-mythos-michael.html