David Sacks 辞任 AI Czar:美国 AI 政策的继承者困境与地缘博弈的新变量
David Sacks 辞任 AI Czar:美国 AI 政策的继承者困境与地缘博弈的新变量
2025年1月20日,David Sacks 以”白宫人工智能与加密货币沙皇”的身份正式就任,成为美国历史上第一位同时统管 AI 与数字资产政策的总统特别顾问。15个月后的2026年3月底,多家媒体报道他即将卸任这一职位。4月6日,白宫正式确认了这一消息。
这15个月里发生了什么?一个数字可以提供侧面注脚:根据斯坦福大学人类中心人工智能研究所(HAI)2026年3月发布的《AI Index 2026》报告,2025年全球企业 AI 投资总额达到约3,386亿美元,美国企业占据其中约1,093亿美元。在这样一个以千亿美元计的产业赛道上,负责协调联邦 AI 政策的最高级别官员突然离场,其影响远不止一次普通的人事变动。
本文的核心论点是:Sacks 的离职暴露了美国 AI 治理体系中一个比任何个人去留都更严重的结构性缺陷——”AI 沙皇”这个职位的设计本身,就无法承载美国 AI 政策所面临的多重矛盾。 继任者无论是谁,如果不改变职位的制度基础,都将重蹈覆辙。
一、Sacks 做了什么:15个月的政策遗产
要评估 Sacks 离职的影响,首先需要厘清他在任期间的实际政策成果。
第一,废除拜登 AI 行政令。 2023年10月30日,拜登总统签署了第14110号行政令(Executive Order 14110),要求开发强大 AI 系统的公司在发布前向联邦政府报告安全测试结果,并指示商务部制定 AI 安全标准。2025年1月,特朗普上任后迅速撤销了该行政令。Sacks 在这一过程中扮演了关键的政策协调角色,他在2025年2月的一次公开讲话中将拜登的行政令描述为”对美国 AI 创新的不必要束缚”。
第二,推动联邦政府 AI 采购。 Sacks 任内推动了一项联邦政府 AI 采购加速计划,鼓励各联邦机构优先采用美国企业开发的 AI 工具。根据美国政府问责署(GAO)2025年9月的报告,联邦政府在2025财年的 AI 相关采购支出约为32亿美元,较上一财年增长约18%。
第三,在 AI 芯片出口管制问题上维持现状。 拜登政府在2022年10月和2023年10月分别发布了两轮对华 AI 芯片出口管制规则,限制 NVIDIA、AMD 等公司向中国出售高端 AI 芯片。Sacks 在任期间,这一管制框架基本维持不变,既没有大幅收紧,也没有实质性放松——尽管 NVIDIA CEO 黄仁勋多次公开呼吁放宽限制,称管制正在”将市场拱手让给中国竞争对手”。
第四,对国际 AI 治理多边框架保持距离。 在2025年11月的联合国 AI 治理高级别咨询机构会议上,美国代表团的参与程度明显低于预期。多位外交政策分析人士将此归因于 Sacks 对多边监管框架的怀疑态度。
这四项政策遗产,勾勒出 Sacks 任期的基本轮廓:亲产业、反监管、维持对华技术管制现状、对国际合作持保留态度。这个组合在硅谷获得了广泛支持,但在华盛顿的国家安全圈和国际外交圈中引发了持续的摩擦。
二、离职的深层原因:三重矛盾的不可调和
Sacks 的离职,表面上可以归因于个人选择——回归私营部门的吸引力、政府工作的薪酬落差(Sacks 作为 Craft Ventures 创始合伙人,其基金管理规模超过35亿美元)、或者简单的职业倦怠。但更深层的原因,在于他所处的三重矛盾已经变得不可调和。
矛盾一:创新加速与安全管控的根本张力
美国政府内部对 AI 的态度,存在着创新派和安全派之间的根本张力。
创新派的代表包括商务部、小企业管理局和白宫经济顾问委员会的部分成员。他们的核心论点是:AI 是美国在与中国竞争中保持领先的最重要工具,过多的监管会削弱美国的技术优势。Sacks 本人明确站在这一阵营。
安全派的代表包括国家安全委员会、国防部和情报界。他们的核心论点是:不受控的 AI 发展本身就是国家安全风险。2025年5月,美国国家安全委员会发布了一份内部评估报告(后被《华盛顿邮报》部分披露),警告前沿 AI 模型可能被用于生物武器设计辅助和网络攻击自动化,建议对最强大的 AI 模型实施开发前审查制度。Sacks 据报道对这一建议持反对意见,认为这将”扼杀美国 AI 产业的竞争力”。
这一矛盾在2025年下半年进一步激化。2025年7月,Anthropic 发布了一份关于其 Claude 模型能力评估的安全报告,指出新一代模型在某些任务上的表现已接近”需要额外安全措施”的阈值。Google DeepMind 在2025年10月也发布了类似的前沿模型安全评估。这些来自产业界自身的安全信号,使得安全派的论点获得了更多支持,而 Sacks 的纯粹亲创新立场变得越来越难以维持。
矛盾二:短期产业利益与长期战略格局的博弈
AI 芯片出口管制是这一矛盾的集中体现。
NVIDIA 在2025财年(截至2026年1月)的数据中心业务收入超过1,150亿美元,其中中国市场在管制前曾贡献约20-25%的收入。出口管制实施后,NVIDIA 开发了多款符合管制阈值的”降级版”芯片(如 H20)面向中国市场,但这些产品的利润率和市场规模远不及被管制的高端产品。黄仁勋在2025年多次公开场合表示,出口管制正在”惩罚美国企业,同时加速中国自主芯片的发展”。
与此同时,华为在2025年推出了其自主研发的昇腾(Ascend)系列 AI 芯片的新版本,虽然在绝对性能上仍落后于 NVIDIA 的最新产品,但差距正在缩小。中国科技企业正在加速构建不依赖美国芯片的 AI 基础设施。
Sacks 在这个问题上的立场是微妙的:他个人倾向于放松管制(这与他的硅谷盟友的利益一致),但作为白宫官员,他无法公开反对国家安全机构的立场。这种”两头不讨好”的处境,是导致他离职的重要因素之一。
矛盾三:单边主义与多边协作的战略选择
2024年8月,欧盟《人工智能法案》(AI Act)正式生效,成为全球第一部全面的 AI 监管法律。该法案对高风险 AI 应用实施严格的合规要求,包括透明度义务、人类监督要求和风险评估程序。2025年8月起,该法案的核心条款开始分阶段执行。
欧盟的监管框架对在欧洲运营的美国 AI 企业产生了直接影响。Meta、Google、OpenAI 和 Anthropic 等公司都需要调整其产品和运营流程以符合欧盟要求。在这种背景下,美国是否参与国际 AI 监管框架的构建,不再是一个纯粹的外交政策选择,而是直接影响美国企业全球竞争力的商业问题。
Sacks 对多边框架的怀疑态度,使美国在国际 AI 治理讨论中的影响力有所下降。2025年11月联合国 AI 治理高级别咨询机构发布的最终报告中,美国的政策偏好未能得到充分反映,而中国和欧盟的立场获得了更多体现。
三、继任者困境:没有简单的选择
Sacks 离去之后,最迫切的问题是:谁来接替他?继任者的选择将向外界传递三个关键信号。
信号一:创新优先还是安全优先。 如果继任者来自科技产业背景(类似 Sacks),意味着特朗普政府将继续优先推动 AI 产业发展。如果继任者来自国家安全或政策背景,则意味着政府开始更认真地对待 AI 安全风险。
信号二:对华立场的调整方向。 继任者在 AI 出口管制问题上的立场,将直接影响 NVIDIA 等公司的业务前景和中国 AI 产业的发展速度。
信号三:国际合作意愿。 在欧盟 AI Act 执行和联合国 AI 治理讨论都在推进的背景下,继任者是否愿意参与国际框架构建,将决定美国在全球 AI 规则制定中的角色。
潜在继任者的讨论中,几类人选被频繁提及:来自斯坦福 HAI 或 MIT 等顶级 AI 研究机构的学者型人选、有国防部或国家安全委员会工作背景的安全型人选、以及来自科技产业但有政府经验的复合型人选。截至本文发布,白宫尚未公布具体的继任安排。
四、对立视角:AI 沙皇的影响力是否被高估?
在分析 Sacks 离职的影响时,有必要认真考虑一个反向论点:AI 沙皇这个职位的实际影响力,可能远没有外界想象的那么大。
持这一观点的分析人士指出几个事实:
第一,AI 政策的真正权力分散在多个联邦机构中。 联邦贸易委员会(FTC)拥有对 AI 领域反垄断和消费者保护的执法权;商务部下属的工业与安全局(BIS)掌控出口管制的具体执行;国家标准与技术研究院(NIST)负责制定 AI 安全标准和框架(其2023年发布的 AI 风险管理框架已被广泛采用);国防部有自己独立的 AI 战略和采购体系。AI 沙皇的协调角色,在这些拥有法定权力的机构面前,实际影响力有限。
第二,Sacks 的职位是白宫行政任命,并非国会确认的联邦职位。 这意味着他没有独立的预算权、没有直接的执法权、也没有在国会听证中代表行政部门的正式授权。他的影响力主要依赖于与总统的个人关系和跨部门协调能力,而非职位本身的制度性权威。
第三,从历史先例看,类似的”沙皇”职位往往影响有限。 美国政府历史上设立过多个”沙皇”职位(如”毒品沙皇”、”网络安全沙皇”),这些职位在设立初期往往获得大量关注,但长期来看,其政策影响力通常不及拥有法定权力的联邦机构负责人。
我的判断是:AI 沙皇的直接政策影响力确实容易被高估,但其离职的信号意义不应被低估。 原因在于:在 AI 政策这个涉及多个联邦机构、多个利益集团、多个国际关系维度的复杂议题上,协调功能本身就是稀缺资源。即使 AI 沙皇的法定权力有限,一个有效的协调者的存在与否,会显著影响政策制定的速度和一致性。Sacks 的离职造成的不是”权力真空”,而是”协调真空”——后者在短期内可能更具破坏性。
五、第三层洞察:真正的问题不是谁来接替,而是这个职位本身需要重新设计
大多数关于 Sacks 离职的讨论,都聚焦于”谁来接替”这个问题。但这是一个错误的问题框架。真正的问题是:一个没有法定权力、没有独立预算、完全依赖个人关系的行政任命职位,是否是美国治理 AI 这个时代最重要技术的正确制度安排?
答案几乎肯定是否定的。以下是三个结构性理由:
理由一:技术演进速度与政策响应速度的根本不匹配
AI 技术的能力边界正在以月为单位发生重大变化。OpenAI 在2024年发布 GPT-4o,2025年发布了 o1 和 o3 系列推理模型;Anthropic 的 Claude 模型在2025年经历了多次重大能力升级;Google 的 Gemini 系列同样在快速迭代。每一次重大模型升级,都可能改变 AI 安全风险的性质和程度,进而要求政策响应的调整。
而美国联邦政策的制定周期通常以年为单位。一个行政令从起草到签署可能需要数月;一项联邦法规从提案到最终规则可能需要1-2年;国会立法的周期更长。在这种速度差异下,依赖单一个人(无论多么能干)来协调政策响应,是一种制度设计上的失败。
理由二:国际比较揭示了替代方案的可能性
欧盟选择了机构化路径:通过 AI Act 建立了一套包含欧盟 AI 办公室(AI Office)、各成员国市场监督机构、以及科学专家组的多层治理架构。这套架构的优势在于:它不依赖于任何单一个人,有明确的法定权力基础,并且能够在人事变动中保持政策连续性。
英国选择了任务导向路径:2023年成立的 AI 安全研究所(AI Safety Institute, AISI)专注于评估前沿 AI 模型的安全性,不试图覆盖所有 AI 政策议题,而是在一个关键领域建立深度专业能力。2025年,AISI 已经与多家主要 AI 公司建立了模型安全评估的合作机制。
新加坡选择了监管沙盒路径:其信息通信媒体发展局(IMDA)推出的 AI 治理框架,允许企业在受控环境中测试新的 AI 应用,监管机构在实践中积累经验后再制定正式规则。
这些国际经验表明,”设立一个沙皇职位”远不是唯一的选择,甚至可能不是最优选择。
理由三:Sacks 案例证明了”硅谷精英进政府”模式的系统性局限
Sacks 不是第一个从硅谷进入政府后遭遇困难的科技精英。这个模式的系统性问题包括:
文化冲突。 硅谷的行动文化强调快速决策、快速迭代、容忍失败;政府的决策文化强调程序正义、多方协商、规避风险。这种文化差异不是个人适应力能够弥合的。
利益冲突。 Sacks 作为 Craft Ventures 的创始人,其基金投资组合中包含多家 AI 公司。虽然他在就任时进行了利益申报和资产安排,但在做出影响 AI 产业的政策决定时,利益冲突的质疑始终如影随形。这不是 Sacks 个人的问题,而是所有从产业界进入政府的官员都面临的结构性困境。
薪酬落差。 根据美国人事管理办公室(OPM)的数据,白宫高级顾问的年薪上限约为18.5万美元。相比之下,顶级风险投资基金合伙人的年收入通常在数百万到数千万美元之间。这种薪酬差距意味着,愿意长期在政府任职的顶级科技人才极为稀缺。
因此,我的核心判断是:美国需要的不是一个更好的 AI 沙皇,而是一个更好的 AI 治理制度。 具体而言,这可能意味着:建立一个有国会授权、有独立预算、有专业编制的联邦 AI 治理机构;或者至少将 AI 政策协调功能从单一的行政任命职位升级为一个有制度基础的办公室,配备专业团队和明确的跨部门协调权限。
六、对中美 AI 博弈格局的影响
Sacks 离职对中美 AI 博弈的影响,需要从三个维度评估:
维度一:出口管制走向的不确定性上升
Sacks 在任期间维持了拜登时期出口管制框架的基本结构。他的离职引入了政策方向的不确定性:如果继任者来自国家安全背景,可能推动更严格的管制;如果来自产业背景,可能推动放松。
这种不确定性本身就有影响。根据半导体产业协会(SIA)2025年的数据,美国半导体企业在中国市场的收入约占其全球收入的27%(包括非 AI 芯片)。出口管制政策的任何重大调整,都将直接影响这些企业的财务表现和全球供应链布局。
维度二:中国获得国际规则制定的更大空间
在联合国、G20 和其他多边论坛上,AI 治理的国际讨论正在加速。中国一直在积极参与这些讨论,推动有利于其国家利益的规则框架。2025年,中国在联合国框架下提出了《全球人工智能治理倡议》的更新版本,强调”发展中国家的 AI 权利”和”反对 AI 技术霸权”。
Sacks 离职造成的政策协调空缺,可能导致美国在这些国际论坛上的参与力度进一步下降。这不是因为美国缺乏参与意愿(国务院和商务部仍在积极参与),而是因为缺乏一个能够统一美国立场、协调不同部门诉求的高层协调者。在国际谈判中,内部立场不统一往往比缺席更具破坏性。
维度三:政策稳定性的比较劣势
从拜登的详细行政令到特朗普的大幅废除,再到 Sacks 的离职,美国 AI 政策在不到三年内经历了多次重大方向调整。这种政策波动性,对于需要做长期投资决策的企业而言,是一个严重的负面因素。
相比之下,中国的 AI 政策虽然也在不断调整(例如2025年对生成式 AI 服务的监管规则进行了多次修订),但其基本战略方向——国家主导、产业扶持、有选择性地开放——保持了相对的连续性。这种政策连续性在吸引长期投资方面具有优势。
但需要指出的是,中国 AI 治理体系同样面临自身的结构性问题: 多部委之间的协调成本、地方政府执行与中央政策之间的偏差、以及监管框架对快速技术变化的适应性不足。将中国的 AI 治理描述为”高效的长期主义”是一种过度简化。中美两国面临的是不同类型的治理挑战,而非一方明显优于另一方。
七、对企业界的实际影响与应对建议
对于在美国运营的 AI 企业而言,Sacks 离职最直接的影响是政策不确定性的上升。以下几个具体政策领域的走向将受到最直接的影响:
联邦政府 AI 采购政策。 联邦政府是美国最大的 IT 买家之一,2025财年 IT 支出总额超过1,000亿美元(根据美国联邦 IT 仪表板数据)。Sacks 力推的”优先采用美国企业 AI 产品”政策是否延续,将影响 Palantir、Microsoft、Google 等公司的政府业务收入。
合规要求的演变方向。 如果继任者更注重风险管控,可能推动更多的强制性要求:AI 系统的透明度披露、高风险应用的安全测试、甚至特定领域的许可证制度。NIST 在2023年发布的 AI 风险管理框架(AI RMF 1.0)目前是自愿性质的,是否会演变为强制性标准,是企业需要密切关注的政策信号。
研发资金的政策导向。 白宫科技政策办公室在联邦研发资金的分配方向上有重要影响力。2025财年,美国联邦政府的非国防 AI 研发支出约为20亿美元(根据白宫科技政策办公室的预算分析)。继任者的优先议题——是侧重基础研究、应用开发还是安全评估——将影响这笔资金的流向。
对企业的建议是:在继任者明确之前,保持政策应对的灵活性。 具体而言:(1)建立与多个联邦机构(而非仅白宫)的政策沟通渠道,降低对单一协调者的依赖;(2)提前评估不同政策情景(更严格监管 vs. 维持现状 vs. 进一步放松)对自身业务的影响;(3)关注州级 AI 立法的进展——在联邦政策不确定的时期,加州、纽约等州的 AI 立法可能加速推进,成为事实上的监管标准。
八、美国 AI 治理的制度性挑战与改革方向
Sacks 案例揭示的最深层问题是:美国的行政系统如何才能有效治理一个以指数级速度发展的技术?
传统的政府治理框架,是基于技术相对缓慢演进的假设设计的。立法周期以年为单位,法规修订需要经过漫长的协商和审议,监管机构的专业能力积累需要时间。在 AI 技术以月为单位发生重大变化的背景下,这个传统框架的速度缺陷格外突出。
一些政策创新正在尝试解决这个问题:
监管沙盒机制。 允许监管机构在有限范围内测试新的监管方法,在实践中积累经验后再推广。新加坡和英国在这方面走在前列。
敏捷监管(agile regulation)。 倡导更快速迭代的监管工具,用原则性指导而非详细规则来应对快速变化的技术。加拿大的 AI 与数据法案(AIDA)在设计上采用了这一理念。
技术专家的制度化参与。 不是临时聘请一个”沙皇”,而是建立常设的技术顾问委员会和专业评估机构,确保政策制定者能够持续获得高质量的技术输入。英国 AI 安全研究所是这一方向的代表。
Sacks 离职后留下的政策空缺,恰恰提供了一个反思和重新设计的机会。美国国会中已有议员提出建立独立的联邦 AI 委员会的立法提案(如2024年提出的《国家人工智能委员会法案》),但这些提案在立法进程中进展缓慢。Sacks 的离职是否会加速这一立法进程,是值得关注的政策动向。
结语:这不是关于一个人的故事
David Sacks 的离职,是美国 AI 治理体系结构性缺陷的一个症状,而非原因。将注意力过度集中在”谁来接替”这个问题上,会遮蔽真正重要的制度性讨论。
对于政策制定者而言,核心问题是:是否需要将 AI 治理从依赖个人的”沙皇模式”升级为有制度基础的机构化模式?
对于企业而言,核心问题是:如何在政策不确定性中建立足够的战略灵活性,同时积极参与政策制定过程,而非被动等待?
对于中美竞争的观察者而言,核心问题是:美国 AI 治理的制度性调整速度,是否能够跟上技术演进和地缘竞争的节奏?
在接下来的数月内,继任者的产生过程和继任者本身的政策立场,将向外界传递美国 AI 政策走向的重要信号。但更值得长期关注的,是这次人事变动是否会催化美国 AI 治理制度的根本性改革。如果答案是否定的——如果美国只是找到另一个人填补这个职位,而不改变职位的制度基础——那么下一次”AI 沙皇离职”的故事,只是时间问题。
这是 Sacks 离职事件最终极的启示:在 AI 时代,个人英雄主义的治理模式已经走到了尽头。制度建设,而非人事安排,才是决定 AI 治理成败的关键变量。
参考资料
- Stanford HAI AI Index Report 2026 — Stanford University Human-Centered Artificial Intelligence, 2026-03
- Executive Order 14110 on Safe, Secure, and Trustworthy AI — The White House, 2023-10-30
- EU AI Act: First Regulation on Artificial Intelligence — European Parliament, 2024-08
- NIST AI Risk Management Framework (AI RMF 1.0) — National Institute of Standards and Technology, 2023-01
- UK AI Safety Institute: Approach to Evaluations — UK AI Safety Institute, 2025
- White House AI Czar David Sacks departure coverage — 来源: Reuters, 2026-03-27
- NVIDIA FY2025 Annual Report, Data Center Revenue — 来源: NVIDIA Investor Relations, 2026-02
- U.S. Federal IT Dashboard, AI-related procurement data — 来源: itdashboard.gov, 2025-09
- Politico, “What Comes After Sacks: The Hunt for America’s Next AI Policy Leader” — 来源: Politico, 2026-04