2026年5月14日,Anthropic发布了一篇题为「2028:全球AI领导力的两种情景」的政策论文。论文的核心论点可以用一句话概括:美国必须在2028年之前采取行动收紧对中国的AI芯片出口管制,否则,民主国家将失去对AI规则的制定权。

这是一份严肃的政策分析。它也是一份商业利益与公民担忧被精心编织在一起、以至于无法拆解的新型文件。

这是它最值得仔细阅读的原因。

场景A与场景B:2028年的两种世界

Anthropic的论文构建了一个清晰的思想实验。

在场景A中,美国成功扩大了算力优势。政策制定者收紧了出口管制,打击了中国企业针对美国AI模型的大规模「蒸馏攻击」,并加速民主国家对AI的采用。在这个世界里,民主国家制定AI规则和规范,美国在2028年保持12至24个月的模型智能领先优势。同时,Anthropic在论文中指出,这种领先优势也将为美中两国在AI安全领域的实质性对话创造条件——而在势均力敌的竞争中,任何一方都没有动力让步。

在场景B中,美国选择不行动。现有出口管制漏洞没有被堵住,中国企业继续获得更多算力,迅速追赶前沿。在这个世界里,AI规范由威权政权塑造,最先进的模型被用于「前所未有规模的自动化镇压」。

论文的逻辑链条是直接的:最重要的AI成分是算力(训练模型所需的芯片);最先进的芯片由美国公司开发;美国政府的出口管制限制了中国的芯片供应;但中国企业通过利用漏洞和蒸馏攻击缩小了差距;因此,现在必须采取更严格的行动。

Anthropic CEO Dario Amodei在论文中写道:「算力约束是限制中国AI追赶的核心因素。如果美国现在行动,有可能在2028年锁定12至24个月的前沿能力领先优势。这个窗口不会永远开着。」

为什么是2028?为什么是现在?

时间节点的选择不是偶然的。

2028年是Anthropic认为「变革性AI系统」可能到来的时间窗口,与Dario Amodei「技术的青春期」文章中的判断一致——AGI级系统可能在2026至2028年间出现。在这个窗口之前的政策行动,将决定这些系统在谁的价值观框架下构建。

「如果前沿由威权体制首先设定,那么整个技术的规则和规范将反映这些体制的价值观,」论文写道。「那些规则和规范将决定这项技术是否安全,它保护谁的安全,以及它最终服务谁的利益。我们相信这一责任应由民主选举的政府承担,而不是威权政权。」

这个论断同时是一个安全警告和一个战略定位。

从纯安全角度看,担忧是合理的:中国政府已在使用AI进行审查、监控和情报活动。一个受北京控制的领先AI公司设定全球AI标准,确实会带来与美国价值观截然不同的结果。

但从战略角度看,这个担忧也恰好是Anthropic商业利益的精确投影。Anthropic需要的,正好也是美国需要的:保持前沿模型只在美国公司手中。

蒸馏攻击:Anthropic命名的威胁

论文中有一个技术细节值得单独讨论:「大规模蒸馏攻击」。

Anthropic将这种攻击定义为:中国AI公司通过大规模调用美国AI模型的API,系统性地提取美国模型的能力,从而以低得多的成本训练出类似的模型。论文还特别引用了Anthropic自己的研究「检测和防止蒸馏攻击」,暗示这是一个需要政策干预的实质性威胁。

这不是夸大其词,但它的政策含义是微妙的。如果蒸馏攻击被视为主要威胁,解决方案不仅是限制芯片出口,还包括限制美国AI模型的API访问——这直接意味着对中国企业限制使用Claude、GPT等模型。

然而,论文回避了一个关键的反驳证据:DeepSeek V3和R1的成功并非主要依赖蒸馏攻击,而是通过数学推理强化学习等自主创新,在算力严格受限的条件下达到接近前沿的性能。这意味着,限制芯片出口并不必然限制模型智能的发展——它可能只是迫使更高效算法的出现,甚至加速了对算力依赖的超越。

这是Anthropic没有在论文中正面讨论的核心悖论:出口管制是否真的能锁定12至24个月的领先优势,还是只能暂时减缓,最终反而催生了更高效的AI路径?一份严肃的政策分析应当直面这个问题,而不是绕过它。

三种读法,一份文件

Anthropic这篇论文的特殊之处,在于它直接进入了美中关系框架——传统上由政府、智库和国防专家主导的领域。Anthropic不是在讨论「如何监管AI」,而是在讨论「谁应该领导AI」。

一份AI公司发布的「美国vs中国」叙事政策论文,有几种可能的读法:

读法一:真诚的安全担忧。 Dario Amodei真的相信,如果威权政府领先AI,世界会变得更糟。他的公司正在承担它认为有义务承担的公民责任,向政策制定者提供他们认为重要的分析。这种担忧可能完全真实。

读法二:商业利益的政策包装。 出口管制越严格,中国竞争对手越难追赶,Anthropic的市场地位越稳固。一份呼吁收紧管制的政策论文,同时也是一份竞争战略文件。这种利益驱动也可能完全真实。

读法三:安全话语权的争夺。 谁定义了「AI安全」的内涵,谁就在监管对话中占据主导。Anthropic的「负责任AI」框架一直将安全放在核心位置;将竞争对手描述为「不安全的威权AI」,强化了Anthropic「安全优先」定位的核心价值。

这三种读法不是互斥的。它们可能同时成立。

论文里缺失的那一层

Anthropic的2028论文在一个重要维度上保持了沉默。

论文将中国AI能力等同于CCP意志的延伸。但实际上,百度、阿里、腾讯、字节跳动和DeepSeek都有各自的商业逻辑,都在寻找国际市场,都面临满足企业客户而非只满足政府需求的压力。将「中国AI=威权AI」简单等号,遮蔽了一个更复杂的现实——在这个现实里,技术竞争与地缘政治并不总是同一回事,中国的研究者和工程师也不等同于政府政策的代理人。

这一简化对于论文的论证目的是有用的,但它以牺牲分析精度为代价。

当AI公司开始写外交政策

有一个宏观趋势在Anthropic这篇论文的语境中值得关注:AI公司正在填补传统政策制定机构的真空。

美国政府缺乏深度理解AI技术的内部专家。国会没有足够的技术知识来独立评估AI政策的技术前提。智库的分析往往滞后于技术本身。

在这种真空中,AI公司本身成了政策知识的主要来源——而他们同时也是被监管的对象,以及政策结果的主要受益者或受损者。

这是一个结构性冲突。但在缺乏替代信息来源的情况下,政策制定者几乎不得不依赖这些来源。

AI行业的「政策内容生产」在过去两年里呈指数级增长。每家主要的AI公司都有了专职的政策团队、政府关系部门和外部游说力量。这意味着,你现在读到的关于「AI风险」和「AI机遇」的大多数公开叙事,都是由那些在这些叙事的具体政策结果中拥有直接财务利益的公司生产的。

这不是阴谋论。这是利益结构的正常运作。

Anthropic的三层告白

让我们最终回到那份论文本身。

Anthropic在其中告诉华盛顿三件事。

第一,你们需要我们。 Anthropic的存在和美国AI领先地位是绑定的。支持Anthropic做研究、支持出口管制保护Anthropic等公司的优势,本质上等于支持民主。

第二,中国是威胁。 这个威胁需要紧迫性的政策行动,而不是等待。2028年是窗口关闭的节点。

第三,我们是可信的。 Anthropic一直将「安全优先」作为核心品牌定位。在AI安全讨论中,Anthropic是被广泛引用的权威来源。这意味着它的政策建议在华盛顿会被认真对待。

三层结构合在一起,是一份完整的战略传播。

无法区分的利益与担忧

在AI竞争最激烈的几年里,「谁赢」和「对人类是否有益」这两个问题,被紧紧绑在了一起——至少在Anthropic的话语体系里是这样的。当一家公司的成功被定义为对民主价值的贡献时,呼吁支持这家公司就同时成了道德义务和政策选择。

这是一种精妙的话语结构,很难被正面反驳——因为它在每一层上都可能是真诚的。

也许Anthropic的担忧完全合理,也许出口管制确实能争取时间,也许在民主框架下构建AI确实对世界更好。

但这份论文存在一个我们无法回避的结构性问题:我们没有办法区分哪些判断来自对世界的真诚分析,哪些来自对自身利益的理性追求——因为在这份论文里,这两者被设计成了同一件事。

无论美国最终是否采取Anthropic建议的行动,这份论文的发布本身已经完成了它最重要的功能:让Anthropic出现在了华盛顿最重要的AI政策对话中心。

读懂这类文件,需要同时持有两个判断:它可能是真的,它也是利益驱动的。两者并不互斥——这正是AI时代政策阅读的基础素养。


参考资料:

  1. Anthropic. “2028: Two Scenarios for Global AI Leadership.” anthropic.com, May 14, 2026. https://www.anthropic.com/research/2028-ai-leadership

  2. Amodei, Dario. “Machines of Loving Grace.” darioamodei.com. https://www.darioamodei.com/essay/machines-of-loving-grace

  3. Amodei, Dario. “The Adolescence of Technology.” darioamodei.com. https://www.darioamodei.com/essay/the-adolescence-of-technology

  4. Anthropic. “Detecting and Preventing Distillation Attacks.” anthropic.com. https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks

  5. Anthropic. “Disrupting AI Espionage.” anthropic.com. https://www.anthropic.com/news/disrupting-AI-espionage