从研究圣地到商业机器:OpenAI 文化裂变背后,顶级 AI 人才正在用脚投票
2024年5月,OpenAI 联合创始人、首席科学家 Ilya Sutskever 宣布离职,随后与同事 Jan Leike 共同离开了他们亲手创建的超级对齐(Superalignment)团队。Leike 在离职声明中写道:「在过去几年里,安全文化和流程已经让位于光鲜的产品。」(来源: Jan Leike on X/Twitter, 2024-05-17)不到一年后,2025年初,OpenAI 另一位联合创始人 John Schulman 转投 Anthropic。到2026年春天,The Verge 的一篇内部调查报道用一句话概括了 OpenAI 的现状:”The vibes are off.”——「感觉不对劲」。
这句话出自一家曾被视为 AI 研究界圣地的机构,背后的含义远比字面更沉重。它不是一次偶发的员工情绪波动,而是一个组织在完成从非营利研究机构到千亿美元商业巨头的蜕变过程中,所释放出的结构性断裂信号。
当 OpenAI 的 CFO Sarah Friar 向 CNBC 确认公司正在为 IPO 向散户投资者预留份额时;当 Sam Altman 在 The New Yorker 的长篇人物报道中被追问「他是否值得信任」时;当 Elon Musk 在法庭上寻求罢黜 Altman 和 Greg Brockman 时——这家估值已达3000亿美元的公司(来源: Bloomberg, 2025-03),其内部文化裂变已经无可回避地成为整个 AI 行业最值得深度解剖的组织学标本。
本文的核心命题不是「OpenAI 是否变坏了」——这是一个道德判断题,不是分析框架。真正值得追问的问题是:当一个以「为全人类安全开发 AGI」为使命驱动的组织,被迫加速完成商业化转型时,其内部权力结构、激励机制和文化基因会经历怎样的不可逆变质?而那些最顶级的 AI 研究人才,又在用怎样的决策逻辑,对这场变质做出回应?
第一章:「感觉不对劲」——温度变化的具体表征
氛围崩塌的解剖学
The Verge 的报道标题本身就是一个精准的诊断词汇。”Vibes”——这个词在英语中描述的是一种弥漫性的、难以量化但无处不在的氛围感——之所以被选用,恰恰说明 OpenAI 内部的问题已经超越了可以用具体政策或具体事件来解释的范畴。(来源: The Verge, 2026-04)
但氛围的崩塌并非无迹可寻。具体的人事变动提供了最直接的证据链:
- 2024年5月:Ilya Sutskever(联合创始人、首席科学家)和 Jan Leike(超级对齐团队联合负责人)先后离职。Leike 公开表示安全文化已让位于产品优先。(来源: TechCrunch, 2024-05-17)
- 2024年8月:联合创始人 John Schulman 加入 Anthropic,他在离职声明中表示希望「更直接地从事 AI 对齐研究」。(来源: Bloomberg, 2024-08-06)
- 2024年9月:CTO Mira Murati、研究副总裁 Barret Zoph 和首席研究官 Bob McGrew 在同一周内宣布离职,震动整个行业。(来源: The New York Times, 2024-09-26)
- 2025年:OpenAI 联合创始人中仅剩 Sam Altman 一人仍在公司任职——8位联合创始人中的7位已经离开。(来源: Reuters, 2025-02)
在技术型组织中,氛围崩塌通常有几个先行指标:信息流通从开放变为层级管控、决策权从分散变为集中、内部讨论从鼓励异见变为强调对齐、员工对领导层的信任度从高变低。上述离职潮正是这些指标从量变到质变的集中体现。
从「扁平」到「层级」:权力结构的漂移
OpenAI 早期的文化基因来自其创始团队的学术背景和非营利使命。在2015年成立时,它的创始捐赠来自 Altman、Musk、Peter Thiel、Reid Hoffman 等人承诺的10亿美元,组织形式是501(c)(3)非营利机构。(来源: OpenAI Blog, 2015-12-11)在研究实验室文化中,权威来自技术贡献而非行政职级,讨论是开放的,异见是被鼓励的。
但随着 ChatGPT 在2022年11月发布后两个月内突破1亿用户,以及随之而来的商业压力,组织规模从2022年的约375人快速扩张到2025年的超过3000人。(来源: The Information, 2025-01)这种规模的膨胀必然带来层级化。问题在于,OpenAI 的这种层级化是在一个极其敏感的时间点发生的——正是公司需要对 AGI 安全做出最严肃判断的时刻,也是商业竞争压力最大的时刻。
这两种压力的叠加,使得「谁有权做决定」这个问题变得异常尖锐。当安全研究人员的判断与产品发布节奏发生冲突时,层级结构决定了谁的声音更响——而 Leike 的离职声明已经给出了答案。
Sam Altman 的信任问题
The New Yorker 对 Sam Altman 的深度报道直接在标题中提出了一个尖锐问题:「他是否值得信任?」(来源: The New Yorker, 2026-04-13)这个问题之所以值得认真对待,不仅因为 Altman 是 OpenAI 的 CEO,更因为他在2023年11月经历了被董事会罢免又在5天内复职的戏剧性事件——这一事件直接导致了董事会的重组和非营利治理结构的实质性弱化。(来源: The New York Times, 2023-11-22)
对于 OpenAI 内部的研究人员来说,这个信任问题具有非常具体的含义:当你把自己最重要的职业年华投入到一个关于人类未来的宏大使命中,你需要相信领导这个使命的人的判断和动机。2023年11月的董事会危机表明,即便是董事会层面的安全担忧,也可以在商业压力和员工联名信的压力下被迅速推翻。当这种信任开始动摇,离职就不再是一个关于薪酬的计算,而是一个关于价值观的判断。
Elon Musk 在法律诉讼中寻求罢黜 Altman 和 Greg Brockman,(来源: CNBC, 2026-04-07)这一行动无论其法律结果如何,都在公众层面放大了外界对 OpenAI 治理结构的质疑。值得注意的是,Musk 诉讼的核心指控——OpenAI 违背了其非营利使命——与多位离职研究人员的公开声明形成了呼应,尽管他们的动机和立场各不相同。
第二章:从非营利到3000亿估值——商业化转型的组织代价
架构演变的三个阶段与具体数字
OpenAI 的组织架构演变是理解其文化裂变的关键背景。
第一阶段(2015-2019):纯非营利。创始捐赠约10亿美元,员工约100人,核心逻辑是:技术风险如此之大,必须将安全研究置于商业利益之上。这个逻辑吸引了 Sutskever、Schulman 等一批真正认同这一判断的顶级研究人员。
第二阶段(2019-2024):有限营利。2019年,OpenAI 设立了「有限营利」子公司 OpenAI LP,投资者的回报被限制在原始投资的100倍以内。同年获得 Microsoft 10亿美元投资,此后 Microsoft 累计投资超过130亿美元。(来源: Reuters, 2023-01-23)这个结构是一个精心设计的折中方案,但从一开始就内含矛盾:当投资者注入资本时,他们期待回报;当回报预期与安全研究的成本发生冲突时,矛盾就会被激活。
第三阶段(2024至今):全面商业化。2024年10月,OpenAI 完成66亿美元融资,估值达到1570亿美元。(来源: CNBC, 2024-10-02)2025年3月,公司宣布推进转型为公益公司(Public Benefit Corporation),估值进一步攀升至约3000亿美元。(来源: Bloomberg, 2025-03-31)2026年,CFO Sarah Friar 确认 IPO 将向散户投资者预留份额。(来源: CNBC, 2026-04-08)
从100人的非营利实验室到3000人、3000亿美元估值的准上市公司——这不是渐进式演化,而是组织基因的根本性重写。
激励机制的重构
组织文化的变化,最终都会在激励机制上找到落脚点。OpenAI 的员工股权结构经历了显著变化:2023年的员工股权回购价格对应约860亿美元估值,到2024年10月已升至1570亿美元,2025年更达到约3000亿美元。(来源: The Information, 2025-03)这意味着早期员工的纸面财富在两年内翻了数倍。
这个变化的影响是双向的。一方面,它吸引了一批新的人才——那些对商业成功有强烈兴趣的工程师和产品经理。OpenAI 的年化收入从2023年的16亿美元增长到2024年底的超过40亿美元,(来源: The Information, 2024-12)产品团队的扩张速度远超研究团队。另一方面,它改变了原有研究文化中的价值排序:当论文发表和产品发布都可以影响公司估值时,两者之间的权衡就不再是纯粹的学术判断,而是被资本逻辑所渗透的商业决策。
Musk 在社交媒体上评论 OpenAI 股票二级市场遇冷时表示「毫不意外」,并暗示投资者正在转向 Anthropic。(来源: Elon Musk on X/Twitter, 2026-04)这个评论——无论其动机如何——触及了一个真实的市场信号:Anthropic 在2024年完成了由 Amazon 领投的总计80亿美元投资,估值达到约600亿美元。(来源: The Wall Street Journal, 2024-11-22)当资本市场开始用投票在不同的 AI 安全理念之间做出选择时,组织文化的差异就具有了真实的商业含义。
「工业政策」文件的双重解读
2026年4月,OpenAI 发布了一份题为《经济蓝图》(Economic Blueprint)的政策文件,提出了公共财富基金、四天工作制、机器人税等一系列宏观政策建议。(来源: Business Insider, 2026-04)
从一个角度看,这是 OpenAI 试图构建一套应对技术性失业和财富不平等的社会政策框架,体现了公司对更广泛社会影响的责任感。OpenAI 首席经济学家 Ronnie Chatterji(前白宫经济顾问委员会成员)在文件发布时表示,这些建议基于对 AI 对劳动力市场影响的严肃研究。(来源: Business Insider, 2026-04)
但从另一个角度看,一家正在推进 IPO 的商业公司发布关于「机器人税」和「公共财富基金」的政策建议,其时机选择值得审视。这份文件是在说:「我们理解技术对社会的冲击,我们是负责任的行为者」——这是一种面向监管机构和公众的叙事管理。
对立视角值得认真对待:OpenAI 总裁 Greg Brockman(在离职前)和现任高管多次公开表示,商业化是实现使命的手段而非背叛。OpenAI 在2024年发布的安全框架(Preparedness Framework)中明确设立了「安全阈值」,承诺在模型风险评估未通过时不会发布产品。(来源: OpenAI Blog, 2023-12-18)支持者认为,这种制度化的安全机制比依赖个人善意更可靠。
我的判断:制度化的安全框架确实比纯粹的善意承诺更有价值,但其有效性取决于执行力度和组织文化的支撑。当超级对齐团队的两位负责人都已离职、当7位联合创始人中的6位已经离开时,这些框架的执行者和捍卫者正在流失。制度是骨架,文化是血肉——骨架没有血肉就无法运转。
「使命」的货币化悖论
这里存在一个深刻的悖论:OpenAI 的商业成功,在很大程度上依赖于其「使命感」的品牌溢价。ChatGPT 之所以能在全球范围内获得如此广泛的信任和采用——月活用户在2025年初已超过3亿(来源: OpenAI Blog, 2025-02)——部分原因在于 OpenAI 长期建立的「负责任 AI」形象。
但这个品牌溢价的建立,需要持续的安全研究投入和真实的安全承诺来支撑。当商业化压力导致安全研究的优先级下降时,品牌的底层资产就在被消耗。而品牌资产的消耗往往是滞后可见的——等到市场感知到时,损失已经难以弥补。
这是一个组织管理层面的「公地悲剧」:短期的商业决策在消耗长期的使命资产,而这种消耗在季度财报中是不可见的。
第三章:顶级人才的去留逻辑——AI 时代的「用脚投票」
离职不是关于薪酬的决策
在分析 AI 顶级研究人员的离职逻辑时,最常见的误解是将其简化为薪酬竞争。这种解读是错误的——不是因为薪酬不重要,而是因为在 AI 研究的顶端,薪酬从来都不是稀缺变量。根据 Levels.fyi 的数据,OpenAI、Google DeepMind、Anthropic、Meta AI 的高级研究科学家总薪酬包均在50万至150万美元区间,差异不足以解释大规模的定向人才流动。(来源: Levels.fyi, 2025)
真正驱动顶级研究人员做出离职决策的,是一组更深层的价值观变量。Jan Leike 的离职声明是最直接的证据:他没有提到薪酬,而是明确指出「安全文化和流程已经让位于光鲜的产品」。John Schulman 的离职声明同样聚焦于「希望更直接地从事 AI 对齐研究」。
这些声明指向三个核心变量:
研究自由度:能否追求自己认为最重要的研究问题,而不是被产品路线图所约束?OpenAI 的超级对齐团队在2024年被解散前,据报道仅获得了公司承诺的20%算力中的一小部分。(来源: Wired, 2024-05-17)
安全优先级的真实性:组织对 AI 安全的承诺,是真实的研究议程,还是品牌叙事的一部分?Leike 的公开声明直接回答了这个问题。
组织信任度:你相信组织的领导层会在关键时刻做出正确的判断吗?2023年11月的董事会危机,以及随后董事会被重组为对 Altman 更友好的构成,深刻动摇了这种信任。
人才流向的具体图谱
当顶级 AI 研究人员离开 OpenAI 时,他们去了哪里?具体的流向图谱揭示了深刻的行业战略含义:
流向 Anthropic:John Schulman(OpenAI 联合创始人、PPO 算法发明者)、Jan Leike(超级对齐团队联合负责人)、Durk Kingma(VAE 论文共同作者)等核心研究人员先后加入 Anthropic。Anthropic 本身就是由前 OpenAI 安全副总裁 Dario Amodei 和研究副总裁 Daniela Amodei 在2021年创立的,其核心卖点正是「安全优先」的研究文化。(来源: Anthropic Blog, 2021-05)
自主创业:Ilya Sutskever 在离开 OpenAI 后创立了 Safe Superintelligence Inc.(SSI),一家明确以安全超级智能为唯一目标的公司,在2024年获得10亿美元融资。(来源: Reuters, 2024-09-04)Andrej Karpathy(OpenAI 联合创始人之一)离职后创立了 AI 教育公司 Eureka Labs。
流向大型科技公司:部分研究人员回流至 Google DeepMind、Meta AI 等拥有大规模算力资源的机构。
这里有一个值得深思的市场机制:OpenAI 的文化裂变,实际上在为 Anthropic 提供持续的人才供给。每一位因为安全理念冲突而离开 OpenAI 的顶级研究人员,都在强化 Anthropic 的研究能力;每一次 OpenAI 的治理危机,都在为 Anthropic 的「我们更认真对待安全」的品牌叙事提供素材。从竞争战略的角度看,这是一种极为罕见的竞争动态:一家公司的文化退化,正在为其最直接的竞争对手提供系统性的竞争优势。
「安全」作为竞争资产——大多数人没看到的第三层
大多数关于 AI 人才竞争的分析,聚焦于薪酬、算力资源和研究发表机会。但存在一个更深层、大多数人没有充分注意到的竞争维度:对 AI 安全的真实承诺,本身就是顶级研究人才的核心吸引力。
这不是一个关于道德高尚的论断,而是一个关于人才市场结构的观察。在 AI 研究的顶端,那些真正有能力推动 AGI 进展的研究人员,往往也是那些对 AGI 风险理解最深刻的人。Sutskever 是 AGI 能力研究的先驱,同时也是最早系统性思考 AGI 安全的人之一——这不是巧合,而是因为深刻理解能力的人,也最深刻理解风险。
这意味着,那些能够维持真实安全研究文化的组织,在顶级人才竞争中具有结构性优势。OpenAI 的文化裂变,正在侵蚀这个结构性优势。而这种侵蚀的代价,将在未来的技术竞争中以某种方式被计量——当你失去的不是普通工程师,而是 Sutskever、Schulman、Leike 这样的人时,损失的不仅是人力资源,而是组织的智识核心。
第四章:历史镜鉴与 AI 时代的特殊性
贝尔实验室:经济结构决定文化命运
贝尔实验室是人类历史上最成功的工业研究实验室之一。晶体管、激光、Unix、C 语言、信息论——这些改变了整个技术文明的发明,都诞生于这个被 AT&T 垄断利润所滋养的研究圣地。贝尔实验室在其鼎盛时期拥有超过25000名员工,其中约3000人从事基础研究,产出了9位诺贝尔奖得主。(来源: Jon Gertner, The Idea Factory, 2012)
贝尔实验室的成功依赖于一个极为特殊的条件:AT&T 作为受监管的垄断企业,有稳定的利润来源,同时因为反垄断监管而被限制进入新市场。这反而创造了一个奇特的研究自由空间。当1984年 AT&T 被拆分,这个特殊的经济结构消失时,贝尔实验室的研究文化也随之瓦解。
OpenAI 的处境与此有深刻的结构性相似:它试图在商业竞争的压力下维持研究实验室的文化,但支撑这种文化的经济条件(使命驱动的捐赠和有限营利结构)正在被商业化压力所侵蚀。不同之处在于,贝尔实验室的衰落用了十年,而 OpenAI 的文化转变在三年内就已经显现。
AI 时代的特殊性:安全问题使一切变得不同
历史上所有的研究机构商业化案例,都面临「研究自由度 vs. 商业相关性」的张力。但 OpenAI 的情况具有一个历史上从未有过的特殊维度:安全问题的存在性风险。
贝尔实验室的研究人员在商业化压力下,最坏的结果是研究成果被忽视。但对于 OpenAI 的 AI 安全研究人员来说,商业化压力导致安全研究被边缘化的最坏结果,不是商业失败,而是开发出一个对人类有害的 AGI 系统。正如 AI 安全研究者 Stuart Russell(加州大学伯克利分校教授、《人工智能:现代方法》作者)所指出的,AGI 安全不同于其他技术安全问题,因为「我们可能只有一次机会把它做对」。(来源: Stuart Russell, Human Compatible, 2019)
这种判断的压力,是贝尔实验室或 Xerox PARC 的研究人员从未面临过的。它使得 OpenAI 的人才流失问题,在重要性上超越了任何历史上的类似案例。
「安全加速」的悖论
这里存在一个深刻的悖论。这一矛盾在 AI 安全社区已被广泛讨论——从 Timnit Gebru 和 Emily Bender 对大型语言模型风险的早期警告(来源: Bender et al., “On the Dangers of Stochastic Parrots”, FAccT 2021),到 Eliezer Yudkowsky 对 AGI 竞赛动态的批评——但在 OpenAI 的具体案例中,它呈现出一种特别尖锐的形式:
Altman 和 OpenAI 的核心论点之一是:如果 AGI 的到来是不可避免的,那么最好是由一个真正关心安全的组织来率先实现它。这个逻辑要求 OpenAI 必须保持技术领先,而保持技术领先需要巨大的算力投入——OpenAI 在2025年的算力支出预计超过50亿美元(来源: The Information, 2025-01)——而算力投入需要商业收入,而商业收入需要产品化,而产品化需要加速。
这是一个自洽的逻辑链——但它的前提假设(「由我们来做比由别人来做更安全」)需要「我们确实比别人更认真对待安全」来支撑。当超级对齐团队被解散、当团队负责人公开声明安全已让位于产品时,这个前提假设就失去了可信度。
这是 OpenAI 文化裂变中最深层、也最难解决的矛盾:商业化被用来为安全辩护,但商业化本身正在侵蚀安全的真实性。
第五章:裂变之后——OpenAI 的文化选择将如何定义 AGI 竞赛的规则
竞争格局的重塑
OpenAI 的文化裂变正在以一种非线性的方式重塑整个 AI 行业的竞争格局。当前 AI 行业正在形成几个不同的「文化极点」:
- OpenAI:3000亿美元估值,超过3000名员工,年化收入超过40亿美元,代表「商业化使命型」。
- Anthropic:约600亿美元估值,约1000名员工,获得 Amazon 和 Google 的大规模投资,代表「安全优先研究型」。(来源: The Wall Street Journal, 2024-11-22)
- Google DeepMind:合并后约2000名研究人员,背靠 Google 的算力和数据资源,代表「大公司研究部门型」。(来源: Wired, 2023-04-20)
- Meta AI:开源 Llama 系列模型,代表「开源生态型」。(来源: Meta AI Blog, 2024-07)
- SSI(Sutskever 创立):10亿美元融资,专注安全超级智能,代表「纯安全研究型」。
OpenAI 的文化裂变,正在加速这种极点分化。那些对安全研究最有热情的人才,正在向 Anthropic 和 SSI 汇聚;那些对开放研究最有热情的人才,正在向 Meta AI 和学术界汇聚;那些对商业产品最有热情的人才,正在向 OpenAI 和各类创业公司汇聚。
商业化是否必然意味着安全让步?——两种对立视角的深度交锋
观点一:商业化与安全可以共存,甚至互相强化。 这个观点的最有力支持者包括 OpenAI 现任安全系统负责人 Lilian Weng 和多位留任的高级研究员。他们的论点是:(1)商业成功为安全研究提供了前所未有的资源——OpenAI 2025年的研究预算远超任何非营利机构的能力;(2)市场压力会迫使公司认真对待安全,因为一次重大的 AI 安全事故将对公司的商业价值造成毁灭性打击;(3)OpenAI 的 Preparedness Framework 和 Safety Advisory Group 提供了制度化的安全保障,不依赖于任何个人。微软 CEO Satya Nadella 也多次公开表示,OpenAI 的安全承诺是微软持续投资的前提条件。(来源: Microsoft Blog, 2024-01)
观点二:商业化必然侵蚀安全。 这个观点的支持者包括多位已离职的 OpenAI 研究人员以及外部 AI 安全研究者。他们的论点是:(1)资本市场的季度业绩压力与 AI 安全研究的长期性之间存在根本性的不兼容;(2)超级对齐团队的解散和核心安全研究人员的离职,是制度化保障在商业压力下失效的直接证据;(3)当 OpenAI 的董事会在2023年11月试图基于安全担忧做出决策时,商业压力在5天内就推翻了这个决策——这证明了在关键时刻,商业逻辑拥有结构性优势。
我的判断:两种观点都捕捉到了真实的机制,但第二种观点在当前 AI 发展阶段更具解释力。原因在于:AI 安全研究目前处于一个极度不确定的阶段,我们尚未有可靠的方法来评估一个 AI 系统是否真正「安全」。在这种不确定性下,商业压力会系统性地偏向「我们还没有看到明显的危害,所以可以继续推进」的判断,而不是「我们无法确认安全,所以应该暂停」的判断。这种偏向不是出于恶意,而是商业激励结构的自然产物。超级对齐团队的命运就是这种偏向的具体体现。
更关键的是,第一种观点的「制度化保障」论点有一个致命弱点:制度的有效性取决于执行者的意愿和能力。当制度的设计者和捍卫者(Sutskever、Leike、Schulman)已经离开时,制度本身就变成了一个缺乏执行力的空壳。这不是说 OpenAI 现在没有安全工作——它显然有——而是说安全工作的组织地位和决策权重已经发生了实质性的下降。
文化裂变的不可逆性
最后,有一个令人不安的结论需要直面:文化裂变在达到某个临界点之后,往往是不可逆的。
组织文化的变化有一个独特的路径依赖性:当一批核心文化载体离开时,他们带走的不仅是技术能力,更是使这种文化得以自我复制的「文化 DNA」。8位联合创始人中7位的离开,不仅是人才流失,更是组织记忆和创始文化的断裂。新加入的员工——其中许多来自 Google、Meta、Amazon 等商业公司——会在一个已经改变的文化环境中形成自己的组织认知,而这种认知会进一步强化新的文化模式。
这意味着,即使 OpenAI 的领导层决定「回归安全优先」,这种回归也需要面对一个已经发生了深刻变化的组织现实。它不能仅仅通过政策宣示来实现,而需要通过大量具体的、可观察的行动来重建信任——这是一个漫长而不确定的过程。
结语:用脚投票的深层含义
当 Ilya Sutskever 选择创立 SSI 而非留在 OpenAI 时,当 Jan Leike 选择加入 Anthropic 并公开批评 OpenAI 的安全文化时,当 John Schulman 选择离开他共同创立的公司去追求更纯粹的对齐研究时——他们做出的不仅仅是个人职业决策。这些决策是一种集体判断:这个组织是否仍然是实现我所认为最重要目标的最佳场所?
这种「用脚投票」的行为,在个体层面是一个关于职业意义的选择,在组织层面是一个关于文化健康度的信号,在行业层面是一个关于 AGI 竞赛规则的投票。
The Verge 所捕捉到的「感觉不对劲」,Altman 在 The New Yorker 深度报道中面临的信任追问,Musk 在法庭上对 OpenAI 治理的挑战,CFO Friar 向散户投资者预留 IPO 份额的宣告——这些信号共同指向一个不可回避的现实:OpenAI 正在成为一家不同的公司。
这不是一个关于好坏的判断。成为一家不同的公司,可能是 OpenAI 在资本密集型 AI 竞赛中生存的必要条件。问题在于,在这个转变过程中,那些使 OpenAI 能够吸引最顶级安全研究人才的核心资产——真实的使命感、研究自由度、对安全的真实承诺——正在以可观测的速率被消耗。7位联合创始人的离去、超级对齐团队的解散、安全负责人的公开批评——这些不是模糊的「氛围」问题,而是可以被计量的组织资产流失。
对于 AI 行业的观察者和参与者来说,这场文化裂变的真正意义在于:它揭示了「安全 AGI 开发」这一命题的组织实现难度,远超大多数人的预期。这不是一个可以通过正确的政策声明或正确的领导层来解决的问题,而是一个需要在组织设计层面进行根本性创新的挑战。
而在这个创新出现之前,顶级 AI 研究人才将继续用脚投票——他们的流向,将成为判断哪个组织真正在认真对待这个挑战的最可靠指标。
参考资料
-
The Vibes Are Off at OpenAI — The Verge, 2026-04
-
Sam Altman May Control Our Future—Can He Be Trusted? — The New Yorker, 2026-04-13
-
Elon Musk Seeks Ouster of OpenAI CEO Sam Altman as Part of Lawsuit — CNBC, 2026-04-07
-
OpenAI IPO Will Set Aside Shares for Retail Investors, CFO Confirms — CNBC, 2026-04-08
-
OpenAI Superintelligence AI Upheaval Tax Shorter Workweek Public Wealth Fund — Business Insider, 2026-04
-
Jan Leike’s departure statement — Jan Leike on X/Twitter, 2024-05-17
-
OpenAI co-founder John Schulman joins Anthropic — Bloomberg, 2024-08-06
-
Mira Murati and two other senior OpenAI executives resign — The New York Times, 2024-09-26
-
OpenAI closes $6.6 billion funding round at $157 billion valuation — CNBC, 2024-10-02
-
OpenAI in talks for new funding round valuing it at $300 billion — Bloomberg, 2025-03-31
-
Ilya Sutskever’s Safe Superintelligence raises $1 billion — Reuters, 2024-09-04
-
OpenAI Preparedness Framework — OpenAI Blog, 2023-12-18
-
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? — Bender, Gebru et al., FAccT 2021