2026年3月,一个数据让整个AI行业震动:在OpenAI宣布与五角大楼签署AI合作协议后,ChatGPT的卸载量暴增了295%。与此同时,竞争对手Anthropic的Claude下载量显著增长。用户正在批量取消订阅,从一个曾经被视为”AI界iPhone”的产品出走。

Sam Altman据报进入了”损害控制模式”。OpenAI领导层在员工深感忧虑的内部氛围中,不得不为军事合作进行辩护。这不再只是一个商业决策的争议——这是AI行业第一次真正意义上的用户价值观投票。

一、295%背后的故事:从惊讶到出走

让我还原事件的时间线。

2026年3月中旬,国防部长Pete Hegseth将Anthropic列为”国家安全供应链风险”,理由是Anthropic可能在”作战行动期间禁用其技术”——换句话说,Pentagon担心一家以安全著称的AI公司在关键时刻不配合军事行动。国防部提交了40页的简报来支持这个定性。

然后事情发展得极快:Sam Altman在Anthropic被禁后的7小时内签署了替换协议,将OpenAI的模型部署到机密的五角大楼网络上。这不是一般的合作——这是在最高安全级别的军事基础设施上运行AI系统。协议包含三条红线:不用于自主武器、不用于国内监控、仅限云部署。

消息传出后,用户的反应比任何人预期的都要激烈。

295%的卸载量增长不是一个缓慢积累的趋势——它是一个断崖式的事件驱动峰值。这意味着大量用户在看到新闻后,做出了一个即时决定:卸载。对于一个月付20美元(Plus)甚至200美元(Pro)的订阅产品来说,这种反应的速度和规模表明,用户不只是”不满意”——他们感到被背叛

为什么是背叛感?因为很多ChatGPT用户选择这个产品,不只是因为它好用,还因为他们认同OpenAI的使命——”安全地发展通用人工智能,造福全人类”。当”造福全人类”和”为五角大楼服务”之间出现冲突时,用户的信任根基被动摇了。

二、Anthropic的意外收割:价值观成了最好的营销

讽刺的是,Pentagon禁用Anthropic的决定本意是惩罚,但结果却成了Anthropic最好的广告。

Claude的下载量在同一时期显著增长。在Twitter/X和Reddit上,”#SwitchToClaude”成为热门标签。用户分享的迁移故事几乎都有一个共同叙事:”我选择Claude不只是因为它好用,而是因为Anthropic在军事合作问题上有原则。”

这里有一个值得玩味的商业洞察:在AI产品高度同质化的2026年,价值观正在成为差异化竞争的关键维度。

从功能角度看,ChatGPT和Claude的差距在缩小。两者都能完成大多数文本任务,都有强大的推理能力,都支持长上下文窗口。当产品功能趋同时,用户的选择标准会从”什么更好用”转向”什么更对我口味”——而在AI军事化这个敏感议题上,Anthropic的立场明显更符合其核心用户群(技术人员、开发者、知识工作者)的价值倾向。

Ramp的企业支出数据印证了这个趋势:Anthropic现在占企业AI首次支出的73%,而几个月前还是50/50的局面。当然,这个数据变化不能完全归因于军事合作争议——Anthropic在产品能力上的持续提升是主要因素。但Pentagon事件无疑加速了天平的倾斜。

三、OpenAI的辩护:为什么他们认为自己做的是对的

在理解用户的愤怒之后,也需要理解OpenAI的逻辑。

OpenAI的核心论点是:如果不是负责任的AI公司参与国防领域,那这个领域就会被不那么负责任的玩家填充。 与其让缺乏安全意识的公司为军方提供AI系统,不如由OpenAI——一家至少在安全问题上投入了大量资源的公司——来参与,并且设定红线(不用于自主武器、不用于国内监控)。

这个论点在逻辑上是成立的。但它忽略了一个关键问题:你设定的红线,谁来监督执行?

当AI系统部署在”机密的五角大楼网络”上时,外部审计几乎不可能。你能相信军方会在战争压力下严格遵守”不用于自主武器”的限制吗?历史告诉我们,”特殊时期的特殊需要”是突破一切限制的万能借口。

OpenAI还面临一个更现实的商业困境:Pentagon协议背后是Amazon-OpenAI 5000亿美元合作的一部分。当你的核心商业伙伴(Amazon/AWS)在推动军事AI部署时,说”不”的代价可能是失去你最重要的商业关系。

四、员工的忧虑:内部的裂痕

OpenAI领导层面临的不只是外部用户的反弹,还有内部员工的不安。

据报道,Pentagon协议在OpenAI内部引发了激烈讨论。一些员工——特别是那些从学术背景或安全研究领域加入OpenAI的——对公司在军事化方向上的快速推进感到不安。他们当初加入OpenAI是因为”安全地发展AGI”的愿景,而不是因为”为军方提供AI服务”的商业机会。

这种内部张力不是新问题。从OpenAI从非营利转为营利、从开源转为闭源、从”造福全人类”到”五角大楼合作”,公司的每一次战略转向都伴随着一批信仰原始使命的员工的离开。

但这次不同的是,离开的不只是员工。离开的还有用户。

当你的产品用户因为不认同你的商业决策而离开时,这不只是一个PR问题——这是一个战略问题。ChatGPT的护城河从来不是技术领先(Claude在很多场景下已经与ChatGPT平分秋色),而是用户生态和品牌信任。295%的卸载量冲击的正是这个护城河。

五、美军使用Claude选择伊朗打击目标:每个人都是灰色的

让这个故事更加复杂的是另一条同日新闻:有报道称美军使用Claude在伊朗打击行动中选择目标

是的,同一个Anthropic。那个因为拒绝与Pentagon深度合作而被视为”有原则”的公司——它的产品实际上可能已经被用在了军事打击的目标选择中。

这个信息让整个”用户价值观投票”叙事变得更加暧昧。用户从ChatGPT迁移到Claude,认为自己在”用脚投票支持和平”——但如果Claude已经被用在军事目标选择中呢?区别在哪里?

区别可能在于:OpenAI主动签署了军事合作协议,是一种战略选择;而Claude的军事使用可能是通过第三方渠道或非官方途径实现的。但对于被打击目标来说,这个区别毫无意义。

这揭示了AI军事化的一个深层困境:在一个AI能力开源且易于获取的时代,任何公司声称能完全控制自己的技术不被军事使用,都是不切实际的。 差别只在于你是主动拥抱还是被动卷入。

六、写在最后:295%的卸载量改变了什么

ChatGPT的295%卸载量暴增不会杀死OpenAI。这家公司有强大的企业客户基础、250亿美元的预期营收和5000亿美元的合作伙伴关系。消费者的流失对其业务的直接影响可能有限。

但它改变了两件重要的事情。

第一,它证明了AI用户的价值观偏好是真实的、可量化的市场力量。在此之前,”负责任的AI”更多是营销口号。现在我们知道,它可以转化为实际的用户迁移行为——295%的卸载量就是证据。

第二,它向整个AI行业发出了一个信号:在AI能力日趋同质化的时代,信任和价值观可能成为比功能更重要的竞争维度。 用户有选择,而且他们愿意为自己的选择付出代价(切换成本、学习成本、功能差异)。

2026年可能是AI行业的分水岭——不是因为技术突破,而是因为用户第一次大规模地用脚投票,告诉AI公司:你们做什么产品我在乎,你们是什么样的公司我同样在乎。


素材来源:TPS Consulting (2026-03-19)、Generative AI (2026-03-19)、fcacleveland.org (2026-03-19) 主题分类:🏢 ai-org-structure(AI 时代的组织变革)