当华尔街遇见地缘政治:Goldman Sachs香港封禁Claude,揭开AI合规碎片化时代的序幕

2026年4月29日,两家全球最权威的财经媒体——Bloomberg和Reuters——同时报道了一件看似平常却意味深长的事件:Goldman Sachs禁止其香港员工使用Anthropic的Claude AI工具。受访者描述,这种限制来得悄无声息,但覆盖范围明确:不仅是香港本地员工,连出差访港的海外同事在港期间也同样受限。

这件事之所以值得认真对待,不是因为Goldman Sachs封禁了某款AI工具——企业IT系统的白名单管理本属常规操作。值得深思的是:这个决定的触发器,不是Claude的技术缺陷,而是一张”供应链风险”黑名单——由美国国防部于2026年2月盖章,并在随后的法律博弈中被联邦上诉法院确认维持。

金融业AI部署正在进入一个新纪元:合规不再只是隐私条款和数据本地化,它开始与地缘政治直接挂钩。


一、黑名单的来历:从价值冲突到供应链风险

要理解Goldman Sachs此举的深层逻辑,必须回溯Anthropic与美国国防部之间那场持续了2026年2月至4月的正面交锋。

2025年7月,Anthropic与美国国防部签署了一份价值2亿美元的合同,成为首家将AI模型整合进军方保密网络任务流程的AI实验室。彼时,这被视为Anthropic商业化的重大胜利,也被解读为”安全优先”的AI公司进入政府市场的范本。

然而,2026年2月,裂痕浮现。国防部长Pete Hegseth向Anthropic发出最后通牒:允许国防部在所有合法场景下不受限制地使用Claude,否则将被列为”供应链风险”并可能援引《国防生产法》强制执行。

Anthropic拒绝了。CEO Dario Amodei在声明中写道:”在一小部分场景中,我们相信AI可能损害而非捍卫民主价值……一些用途也确实超出了当前技术能够安全可靠完成的边界。”这里隐含的禁区包括:完全自主武器系统,以及对美国公民的国内大规模监控。

国防部的回应没有任何商量余地:2026年2月底,Anthropic被正式列为供应链风险,被禁止参与国防合同。Anthropic当时估值约3800亿美元(CNBC, 2026年2月报道),这场与政府的博弈对投资者信心构成直接压力。

Anthropic随即提起诉讼,请求法院临时阻止这一禁令。2026年4月8日,华盛顿特区联邦上诉法院驳回了Anthropic的申请,理由是:”在天平的一侧,是一家私营公司相对有限的财务损害风险;另一侧,是法院如何干预国防部在现役军事冲突中获取关键AI技术的问题。因此,我们驳回了Anthropic的暂缓裁决申请。”

与此同时,旧金山联邦法院在一个独立但相关的案件中,批准了一项初步禁令,阻止特朗普政府对Claude实施全面使用禁令。结果形成了一个奇异的分裂局面:Anthropic被排除在国防部合同之外,但可以继续服务其他政府机构;国防承包商不能在为国防部工作时使用Claude,但其他用途不受限制。


二、从五角大楼到香港写字楼:合规涟漪如何扩散

Goldman Sachs的香港Claude禁令,就是在上述法律与政治背景下落地的。

据报道,Goldman Sachs香港员工使用Claude的主要场景是软件工程——这与全球大型金融机构的AI落地路径高度吻合:代码辅助、文档生成、数据分析。这类工具的使用通常不涉及最敏感的客户数据,但仍需通过企业IT审批。

那么,Goldman Sachs为何要在香港专项封禁Claude?

理解这个决定需要引入香港的特殊法律地位。香港实行”一国两制”,其金融机构面临独特的监管双重性:一方面,作为在纽约和伦敦上市的美国投资银行,Goldman Sachs须遵守美国出口管制、制裁条例以及美联储、SEC的合规要求;另一方面,香港本地业务受香港证监会(SFC)和香港金融管理局(HKMA)监管,同时随着中国数据安全法(2021年)和个人信息保护法(PIPL)的域外效力延伸,香港金融机构在数据处理方面也面临来自内地的合规压力。

在AI工具的合规问题上,这种双重压力创造了独特的风险地图。Anthropic被列入美国国防部供应链风险名单,意味着使用Claude的相关记录在某些情境下可能被视为合规隐患——尤其是当Goldman Sachs的香港运营同时面向美国监管机构和中国内地金融监管的双重审查时。一家服务于全球客户的投资银行,在工具选择上不得不比任何普通企业都更加谨慎。

这种合规驱动的决策逻辑,在金融行业的AI工具审批中已日趋普遍。Goldman Sachs的香港运营团队所面临的,可能正是这样一个简化版的战略选择框架:在技术能力相近的前提下,哪个工具的合规风险档案更干净?这不是Goldman Sachs单独面临的问题,而是整个在华有重大业务的外资金融机构的共同处境。

这不是Goldman Sachs第一次对AI工具设置区域性限制,但此次禁令的触发因素——地缘政治和政府黑名单,而非产品本身的数据安全问题——开创了一个新的合规模式。


三、AI工具版图正在碎片化:谁在填补真空

Goldman Sachs香港禁令的另一面,是一张正在重新划定的AI工具市场版图。

就在Anthropic四面楚歌之际,2026年4月28日,美国国防部AI主管Cameron Stanley在接受CNBC采访时明确表示:”过度依赖单一供应商永远不是好事。尤其是在软件领域。”他同时确认,国防部正在扩大对Google Gemini的使用,其中包括机密项目——这是Google与五角大楼此前签署合同的后续进展。

这句话的潜台词很清楚:Anthropic的离场,创造了真实的竞争空间,Google是受益方之一。

在企业市场,同样的替代逻辑正在悄然运作。当一款AI工具因地缘政治原因进入企业合规的”灰色区域”,采购决策就会系统性地偏向合规风险更低的竞品。Google的Gemini家族、Microsoft的Azure OpenAI服务、亚马逊Bedrock上的各类模型——这些工具虽然在纯技术评测上未必全面超越Claude,但它们没有挂在任何国防部黑名单上。

这种竞争优势,不是靠研究突破获得的,而是靠合规地位获得的——这或许是AI竞争史上最奇特的护城河之一。

值得关注的是,在Anthropic进退两难之际,亚马逊于2026年4月28日宣布Amazon Bedrock首次引入OpenAI的GPT-5.5、GPT-5.4等前沿模型,同时推出Codex on Bedrock和Bedrock Managed Agents。OpenAI在结束与微软的独占合作后首日,即完成向AWS的战略部署。这一动向的含义是:企业现在可以在同一个云平台(Bedrock)上访问来自OpenAI、Anthropic(通过独立渠道)和其他供应商的模型,但这些供应商的合规地位并非同等——在香港、在国防承包商、在受地缘政治敏感性约束的场景中,区别日益显著。


四、两个联邦法院,一个分裂的法律现实

Anthropic目前面临的法律处境,是AI行业从未经历过的:它同时赢得和输掉了2个相关的法律战。

旧金山联邦法院的初步禁令,保护Anthropic免于被特朗普政府全面封禁——这是Anthropic服务民间市场的法律护盾。但华盛顿特区上诉法院的裁定,维持了国防部的供应链风险认定——这是Anthropic进入政府和军工市场的实质性障碍。

这种分裂不是技术性的法律细节,而是2套权力逻辑的冲突:一套是言论自由和商业自由的宪法保障,另一套是国家安全下的行政权力。在当前的政治生态下,后者的优先级被显著抬高。

对于Goldman Sachs这类在美国和中国市场同时运营的机构,这种分裂反而制造了新的决策困境:即便旧金山法院保护了Claude的民间可用性,香港的监管合规团队仍然需要对”其公司是否应当在政治敏感地区使用一款被美国国防部列为供应链风险的工具”做出保守判断。

答案几乎是注定的。


五、先例效应:金融合规,AI工具的新门槛

Goldman Sachs的这一决定,在金融行业具有显著的先例价值。

金融行业一直是AI工具采购中合规标准最高的行业之一。数据隐私、客户信息保护、跨境数据传输——这些传统合规关卡早已在行业内构建起成熟的评估框架。但”该AI工具的供应商是否被美国政府列为供应链风险”,是一个全新的合规维度。

当Goldman Sachs率先在香港封禁Claude之后,在华业务规模较大的其他外资金融机构——如摩根大通、花旗、汇丰等——其香港合规团队面临的压力是显而易见的:如果行业头部机构已经设立了这条红线,中小机构的风控团队有什么理由不跟进?尤其是那些在监管审查上已处于”高关注”状态的机构,主动收紧AI工具的合规标准是天然的防御策略。

这种先例效应往往比监管规定更有效率。不需要香港证监会或金融稳定委员会发布正式文件,市场本身就会完成标准收敛。

从更宏观的视角看,这意味着AI工具的企业采购决策正在引入一个全新的考量维度:供应商的政治合规地位。这不是说技术能力不再重要,而是说:在技术能力接近的情况下,政治合规地位会成为决定性的差异化因素。


六、Anthropic的困境:价值观与市值之间的钢丝绳

Anthropic拒绝军方无限制使用要求,这一决定在道德上或许是清晰的,但在商业上代价正在逐步显现。

Anthropic的估值约3800亿美元(CNBC 2026年2月报道),这一估值建立在对其技术领先地位和市场扩张潜力的高度信任上。失去国防部合同本身,财务影响是”相对有限的”——上诉法院在裁定书中也这样描述。但连锁反应远不止于此:

  • 国防承包商被禁止在国防相关工作中使用Claude,这将Anthropic排除在一个规模庞大的垂直市场之外
  • Goldman Sachs香港禁令显示,地缘政治标签会以难以预测的方式在企业市场扩散
  • 五角大楼AI主管公开表示正在扩大对Google的使用,向市场发出明确信号

更深层的困境在于:Anthropic的”负责任AI”定位,既是其品牌核心,也是其最大的战略约束。这家公司之所以能够吸引顶级AI研究者和大量资本,部分原因恰恰在于它坚持了某些其他公司没有坚持的原则。但在一个越来越以国家安全逻辑组织的市场中,这些原则的代价正在以不均匀的方式落到不同地区的客户和合作伙伴身上。

有意思的是,2个联邦法院实际上承认了这种两难处境的存在。旧金山法院认为:在诉讼期间全面禁止Claude会造成不成比例的商业损害;华盛顿法院认为:国防部在选择AI供应商时的行政权力应高于私营公司的财务利益。这2个判断并不矛盾,但并置在一起,恰恰描绘出Anthropic当前处境的全貌——它在法律上依然安全,但在市场上正在承受看不见的代价。


七、结语:AI合规的地理碎片化,才刚刚开始

Goldman Sachs香港禁令,很可能不是终点,而是起点。

AI工具的地理碎片化——不同国家和地区因监管、政治、安全考量而维护截然不同的”可用AI白名单”——是下一阶段企业AI治理面临的核心挑战之一。它与数据主权、跨境数据传输、算法透明度等已经在讨论的议题交织在一起,但增加了一个新的维度:供应商的地缘政治站位

这对AI行业的中长期格局有深远影响:

  • 客户在选择AI工具时,必须同时评估技术能力和地缘政治风险,两者缺一不可
  • AI公司必须明确自身的地缘政治站位,并理解这种站位在不同市场会产生截然不同的商业后果
  • 跨国企业的AI工具栈,可能因地区合规要求不同而走向碎片化,增加管理复杂度和成本

这场博弈的下一个观察点,或许是:在Goldman Sachs之后,其他外资金融机构的香港运营团队是否会在未来数周内跟进?以及,Anthropic的法律团队是否能在诉讼中找到一条同时满足”价值观坚守”和”商业存续”的路径?

在AI发展史上,我们通常把技术里程碑和商业突破作为衡量进展的坐标。但Goldman Sachs香港禁令提醒我们,还有另一条叙事线索正在同步展开:AI工具正在成为地缘政治博弈的新战场,而这场博弈的规则,还远未定型。


参考资料:

  1. Bloomberg, “Goldman Staff in Hong Kong Lose Access to Anthropic’s Claude”, 2026-04-29 — https://www.bloomberg.com/news/articles/2026-04-29/goldman-staff-in-hong-kong-lose-access-to-anthropic-s-claude
  2. Reuters, “Goldman Sachs bars Hong Kong bankers from Anthropic AI use, FT reports”, 2026-04-29 — https://www.reuters.com/world/china/goldman-sachs-bars-hong-kong-bankers-anthropic-ai-use-ft-reports-2026-04-29/
  3. CNBC, “Pentagon AI chief confirms DOD’s expanded use of Google, says reliance on one model ‘never a good thing’”, 2026-04-28 — https://www.cnbc.com/2026/04/28/pentagon-ai-chief-confirms-work-with-google-after-anthropic-blacklist.html
  4. CNBC, “Anthropic loses appeals court bid to temporarily block Pentagon blacklisting”, 2026-04-08 — https://www.cnbc.com/2026/04/08/anthropic-pentagon-court-ruling-supply-chain-risk.html
  5. CNBC, “Anthropic faces lose-lose scenario in Pentagon conflict as deadline for policy change looms”, 2026-02-27 — https://www.cnbc.com/2026/02/27/anthropic-pentagon-ai-policy-war-spying.html