2026年4月,Sam Altman在一场由Elon Musk发起的涉及134亿美元损害赔偿诉讼庭审开始前数小时,悄然更新了OpenAI的核心原则文件。这场诉讼(Musk v. OpenAI, Case No. CGC-24-613150,旧金山高等法院)指控OpenAI违背其非营利创始使命、转向营利性结构的行为构成欺诈和违约。时机的选择本身就是一个信号。

这不是一次例行修订。8年前,OpenAI以一份措辞严谨的Charter宣告自己的与众不同——一家愿意在安全面前主动踩刹车的AI实验室,一家承诺在竞争对手接近AGI时放下武器转而协助的组织,一家以利润上限约束商业冲动的非营利机构。2026年4月的新版原则文件,系统性地删除了上述三项核心承诺。

被删除的不只是文字。


第一章:消失的红线

要理解这次删改的分量,必须先回到原始文本。

OpenAI的创始Charter写于2018年,在当时的AI行业生态中属于异类文件。它不是一份企业使命声明,而是一份带有约束条款的自我契约。其中最具约束力的三条承诺,在2026年4月的更新中全部消失。

第一条消失的承诺:竞争中止条款。

原始Charter的精确措辞是:”We are concerned about late-stage AGI development becoming a competitive race without time for adequate safety precautions. Therefore, if a value-aligned, safety-conscious project comes close to building AGI before we do, we commit to stop competing with and start assisting this project.” 这一条款的逻辑是:AGI的安全开发比谁先到达终点更重要。在2018年,这被视为OpenAI安全优先理念的最高表达——愿意放弃第一名的位置,只要结果对人类更好。

2026年4月的新版原则文件中,这一条款不见踪影。(来源: Business Insider, 2026-04)

第二条消失的承诺:利润上限。

原始Charter中包含对投资者回报的明确上限约定,这是OpenAI”有上限利润”(capped profit)结构的文件依据。2019年OpenAI创建有限合伙公司时,首批投资者的回报上限被设定为原始投资额的100倍。这一结构的设计初衷是:确保商业利益不会凌驾于安全使命之上,投资者的回报预期被锚定在一个有限的范围内,超出部分归属于非营利母体。

新版原则文件对此只字未提。与此同时,OpenAI正在推进向完全营利性公益公司(Public Benefit Corporation)的架构转型,其2025年10月完成的最新一轮融资估值达1570亿美元,由SoftBank领投,融资金额66亿美元。(来源: The Conversation, 2026-04-28)

第三条消失的承诺:安全优先于商业化的显式表述。

原始Charter在多处明确将安全置于商业扩张之上,包括”We will attempt to directly build safe and beneficial AGI, but will also consider our mission fulfilled if our work aids others to achieve this outcome”的表述逻辑。新版原则文件的措辞重心发生了根本性转移——从”安全第一,商业第二”转向”负责任地推进AI民主化”。(来源: Techloy, 2026-04)

值得注意的还有一个细节:OpenAI官方使命表述中的”safely”一词被删除。原来的表述是”Ensure that artificial general intelligence—AI systems that are generally smarter than humans—benefits all of humanity”,此前版本在”benefits”前有”safely”的修饰;新版本去掉了这个副词。通过Wayback Machine对比openai.com/about页面的2024年12月存档与2026年4月版本,可以清晰看到这一变化。(来源: The Conversation, 2026-04-28)

这三处删改,单独看都可以被解释为”文字精简”或”表述优化”。但放在一起,它们构成了一幅完整的价值观迁移地图。

Forbes的分析指出,OpenAI新发布的5项原则将重心放在了AGI推进和民主化叙事上,安全相关的约束性语言被更具扩张性的愿景语言所替代。新版5项原则的完整内容为:

  1. “We want AGI to primarily benefit all of humanity, not just those who build it.”
  2. “We want to democratize access to AGI’s benefits as broadly as possible.”
  3. “We want to build AGI that is safe and aligned with human values.”
  4. “We want to be a great place to work and attract the best talent.”
  5. “We want to operate with fiscal discipline to fulfill our mission.”

对比原始Charter的约束性语言,新版原则在措辞上更接近愿景声明(aspirational statement)而非自我约束契约(binding commitment)。”want to”的反复使用,将硬性承诺软化为意愿表达。(来源: Forbes, 2026-04-27)


第二章:竞争压力下的第一条裂缝

竞争中止条款的消失,是三条删除中最容易被理解、也最难被辩护的一条。

让我们回到这条承诺被写下的语境。2018年,AI领域的主要竞争者格局与今天截然不同。Google DeepMind尚未合并(DeepMind与Google Brain的合并发生在2023年4月),Anthropic还没有从OpenAI内部分裂出去(Anthropic成立于2021年),Meta的大规模AI押注尚未成形。OpenAI在当时是一家相对孤独的前沿研究机构,竞争中止条款的成本极低——毕竟,在那个时间点,”其他组织接近AGI”的假设情景几乎是抽象的。

2026年的格局已经根本不同。

Anthropic由OpenAI前核心成员Dario Amodei和Daniela Amodei于2021年创立,截至2025年已完成多轮大规模融资,其中2025年3月由亚马逊领投的一轮融资金额达40亿美元,公司估值超过600亿美元。其安全优先的叙事在很大程度上直接继承并强化了OpenAI最初的Charter精神。Anthropic于2023年9月发布了业界首份”负责任扩展政策”(Responsible Scaling Policy, RSP),并在2024年和2025年分别发布了更新版本,承诺在模型能力达到特定风险阈值时暂停部署。Google DeepMind整合了两大顶级研究团队,在Gemini系列模型上与OpenAI形成直接竞争。Meta以Llama系列开源模型快速扩张AI能力边界。

在这个格局下,竞争中止条款意味着什么?它意味着:如果Anthropic先于OpenAI开发出接近AGI的系统,OpenAI承诺停止竞争、转而协助Anthropic。

这在商业逻辑上等同于主动放弃市场领导地位。对于一家估值已达1570亿美元、年化收入(ARR)在2025年底突破125亿美元、背负SoftBank、Microsoft等巨额投资者回报预期的公司而言,这不是一个可以执行的承诺——它是一个自我毁灭条款。

Business Insider的分析明确指出,新版原则文件在竞争态度上的变化,直接反映了OpenAI与Anthropic等竞争对手关系的重新定义。(来源: Business Insider, 2026-04)

这里存在一个深刻的悖论,而大多数报道没有充分展开它:

Anthropic的存在,是OpenAI原始安全承诺最有力的证明,也是其最致命的威胁。

Anthropic的创立,本身就是OpenAI内部安全研究者对公司方向不满的产物。2021年,包括Dario Amodei(时任OpenAI研究副总裁)在内的约10名核心研究人员集体离职,部分原因正是认为OpenAI的商业化进程——特别是GPT-3的大规模商业化部署——危及安全优先原则。他们带走了Charter的精神,并将其制度化为Anthropic的RSP框架。

结果是:Anthropic成为了一个以”更纯粹的安全叙事”为竞争武器的对手。对OpenAI而言,这创造了一个两难困境——要么坚守安全承诺并承受竞争劣势,要么调整承诺并承受叙事信誉的损失。

2026年4月的Charter更新,清晰地显示了OpenAI选择了哪条路。

但这里有一个值得深究的反向论点:OpenAI的支持者可以辩称,竞争中止条款从来就是一个无法执行的理想化承诺,删除它只是让文件更诚实,而非更危险。这个论点有一定道理——一条无法执行的承诺,其存在的价值是象征性的,而非实质性的。OpenAI前政策负责人Jack Clark(现为Anthropic联合创始人)在2023年的一次公开演讲中也曾承认,竞争中止条款在实际操作层面缺乏明确的触发机制和执行标准。

问题在于:象征性承诺的价值,恰恰在于它所传递的信号。当OpenAI删除这一条款时,它向外界发出的信号是:竞争胜利比安全协作更重要。无论这是否是OpenAI的本意,这是市场和监管者会读取的信息。


第三章:从利润上限到”智能价值规模化”

如果说竞争中止条款的删除是被动应对外部压力,那么利润上限承诺的消失,则对应着一个更主动的商业战略转型。

2026年4月,OpenAI官方博客发布了题为”A business that scales with the value of intelligence”的文章,这是理解新版原则文件的最重要配套文本。(来源: OpenAI官方博客, 2026-04)

这篇文章的核心论点是:AI的价值等同于智能的价值,而智能的价值是无上限的。因此,一个真正致力于让AI惠及全人类的组织,必须建立一个能够无限规模化的商业模式——有上限的利润结构,本质上是对AI民主化使命的约束。

这是一个措辞精心的论证,它将”取消利润上限”重新包装为”更好地服务人类使命”。

让我们解构这个论证的内在逻辑:

原始Charter的利润上限设计,基于一个前提:商业回报的无限化会扭曲组织的决策优先级,使安全让位于盈利。这是一个有理论依据的担忧——在股东价值最大化的压力下,任何组织都面临将短期利润置于长期安全之上的激励。哈佛商学院教授Rebecca Henderson在其2020年著作《Reimagining Capitalism in a World on Fire》中系统论证了这一机制:当组织的财务激励与其社会使命发生冲突时,财务激励几乎总是胜出。

OpenAI新叙事的反驳是:AI的规模化本身就是安全的保证,因为只有规模化才能产生足够的资源用于安全研究,只有广泛部署才能让AI的好处真正惠及所有人而非少数精英。

这个论证在逻辑上并非无懈可击,但它有一个重要的语境:它是在OpenAI推进向完全营利性公司架构转型的过程中被提出的。OpenAI计划在2026年完成从有上限利润结构到公益公司(PBC)的转型,这一转型需要加州总检察长Rob Bonta的批准,目前仍在审查中。

Techloy的分析指出,Sam Altman选择在134亿美元诉讼庭审前数小时发布新版原则,时机本身值得深思——新原则文件可以被视为一份面向法庭和公众的叙事重构工具。(来源: Techloy, 2026-04)

The Conversation的分析更为直接:当一家公司删除使命表述中的”safely”,同时推进向营利性结构转型,这不是文字游戏,而是治理结构的根本性重组——非营利董事会对商业决策的约束力将系统性弱化。在原有架构中,OpenAI的非营利母体拥有对营利性子公司的最终控制权;在新的PBC架构下,这一控制权将被稀释或重新定义。(来源: The Conversation, 2026-04-28)

这里有一个大多数分析者忽略的深层结构性问题:

利润上限不只是一个财务约束,它是一个信号机制。

当OpenAI设置利润上限时,它向潜在投资者传递了一个明确信号:如果你追求无限回报,这里不是合适的投资标的。这个信号的作用是筛选投资者——只有那些接受有限回报、认同安全使命的资本才会进入。

取消利润上限,意味着投资者结构的根本性变化。追求最大化回报的传统风险资本和主权财富基金,现在与OpenAI的激励结构完全对齐。SoftBank在2025年10月领投的66亿美元融资轮,以及此后传闻中的400亿美元后续融资计划,正是这一投资者结构变化的直接体现。这类资本的进入,会在董事会层面、决策层面系统性地强化商业化压力。

这是一个自我强化的循环:取消利润上限→吸引追求最大化回报的资本→资本在治理层面强化商业化压力→进一步压缩安全优先的决策空间。


第四章:企业AI的引力

原则文件的变化不是在真空中发生的。要理解为什么这些变化在2026年发生,必须看OpenAI的商业现实。

OpenAI在2026年发布的企业AI现状报告(The State of Enterprise AI 2025 Report)提供了关键的商业背景。报告显示:截至2025年底,超过93%的财富500强企业正在使用OpenAI的产品,企业API调用量同比增长超过300%,ChatGPT Enterprise和Team版本的付费企业客户超过100万家。企业收入在OpenAI总收入中的占比已从2023年的不足20%上升至2025年的超过50%。(来源: OpenAI官方博客, 2026)

企业客户与消费者用户在需求结构上存在根本性差异。消费者用户对AI的容忍度较高,可以接受偶发性的错误输出;企业客户则需要可预测性、合规性和规模化部署能力。当企业成为核心收入来源时,产品决策的逻辑必然向企业需求倾斜。

这对安全承诺的影响是具体的:

企业客户需要AI系统在其特定业务场景中高效运作,这往往意味着需要调整AI的默认安全限制。一个对企业客户过于保守的AI系统,在竞争中会输给更灵活的替代品——例如Anthropic的Claude Enterprise或Google的Gemini for Business。当企业收入占比持续上升时,”安全优先”的表述就会面临来自销售团队、客户成功团队和产品团队的持续压力。

Forbes的分析指出,OpenAI新的5项原则将AGI推进和商业规模化置于核心位置,这与其企业AI战略的加速推进高度一致。(来源: Forbes, 2026-04-27)

这里有一个值得深入的技术-商业交叉点:

企业AI的规模化,本质上是在生产环境中进行大规模的AI能力验证。

当OpenAI的模型被部署在数千家企业的核心业务流程中——从摩根大通的合规审查到Stripe的欺诈检测,从Moderna的药物研发辅助到Klarna的客服自动化——它获得了其他方式无法获得的真实世界反馈:哪些场景下模型会产生有害输出,哪些业务逻辑会触发意外行为,哪些安全限制会产生不可接受的误报率。

从这个角度看,企业规模化部署确实可以被视为一种安全改进机制。OpenAI的支持者会说:广泛部署产生的反馈,比实验室内的安全测试更有价值,因为它覆盖了真实世界的复杂性。OpenAI安全系统团队负责人Lilian Weng在2025年的一篇技术博客中也曾论证,大规模部署中的红队测试(red-teaming at scale)是发现长尾风险的最有效方式。

但这个论点有一个根本性的缺陷:它混淆了”从部署中学习安全”和”在充分安全验证之前部署”。前者是合理的迭代改进逻辑,后者是用用户作为安全测试的对象。这一区分在AI安全研究文献中被称为”deployment-first vs. safety-first”范式之争。

原始Charter的”安全优先”承诺,本质上是对后者的约束——宁可放慢部署,也不用用户承担安全验证的风险。新版原则的方向,则更接近于”在部署中改进安全”的逻辑。

这两种哲学的差异,在AI能力处于当前水平时可能影响有限;但随着模型能力的提升——特别是当模型开始具备自主行动能力(agentic capabilities)时——差异会以指数级放大。OpenAI在2025年发布的Operator和Codex等自主代理产品,已经将这一问题从理论推向了实践。


第五章:新叙事的内在结构

理解OpenAI这次原则更新,不能只看删除了什么,还要看新增了什么。

新版5项原则的核心叙事是”AI民主化”——让AI的能力惠及所有人,而非只有精英阶层或发达国家。(来源: Forbes, 2026-04-27)

这是一个在道德上具有强大吸引力的框架。它将商业扩张重新定义为社会使命:OpenAI的规模化,等于AI红利的普惠化;OpenAI的商业成功,等于更多人获得AI工具的机会。

这个叙事的精妙之处在于:它将批评者置于一个尴尬位置。如果你批评OpenAI取消利润上限,你会被反问:难道你希望AI只属于富人?如果你批评OpenAI加速商业化,你会被反问:难道你希望AI红利只流向少数精英?

但这个叙事框架存在一个根本性的逻辑漏洞:AI民主化和AI安全,并不是非此即彼的选择。

Anthropic的发展轨迹提供了一个反例:这家公司同样在快速扩张商业规模(2025年ARR预计超过20亿美元),同样在服务企业客户(包括亚马逊AWS上的Bedrock集成),但它保留了更明确的安全承诺框架。Anthropic的RSP文件(最新版本为2025年10月发布的RSP v3.0)明确规定了模型能力评估的量化标准:当模型在生物武器信息获取、网络攻击自主执行等维度的评估分数超过特定阈值时,必须暂停部署并实施额外安全措施。这种量化的、可审计的安全承诺,与OpenAI新版原则中”want to”式的意愿表达形成了鲜明对比。

Anthropic的存在证明:商业化和安全承诺可以共存,至少在当前阶段是如此。

OpenAI的新叙事暗示这两者存在根本性张力——要实现AI民主化,必须取消利润上限和安全优先约束。但这个前提并未得到充分论证。

更值得关注的是这个叙事的政治功能:在OpenAI面临Elon Musk的134亿美元诉讼、加州总检察长对其架构转型的审查、以及前董事会成员Helen Toner等人公开批评的多重压力时刻,”AI民主化”的宏大叙事提供了一个道德防护层。它将商业决策升华为社会使命,将约束的取消重新包装为能力的解放。

Techloy的分析直接点出了这一时机的敏感性:新版原则发布于134亿美元诉讼庭审前数小时,这个时机选择不可能是偶然的。(来源: Techloy, 2026-04)


第六章:AI安全治理的真空

当OpenAI系统性地削弱自身的安全承诺时,一个更大的问题浮出水面:AI行业的安全治理将由谁来守护?

这个问题的答案,取决于你相信哪种安全治理模式是有效的。

模式一:自律式安全(Self-Regulatory Safety)

这是OpenAI原始Charter所代表的模式:领先的AI实验室通过内部承诺和自我约束,主动维护安全标准,并通过公开承诺创造外部问责机制。这个模式的优点是灵活、快速、能够跟上技术发展速度;缺点是依赖组织的自律意愿,而商业压力会系统性地侵蚀这种意愿。

OpenAI的Charter演变,是自律式安全模式局限性的一个教科书案例。当商业化压力足够大时,自我约束的承诺会被逐条修订。值得注意的是,OpenAI并非唯一的案例:Google DeepMind在2024年也曾因商业压力而加速发布Gemini模型,尽管内部安全团队对某些能力评估尚未完成。

模式二:竞争性安全(Competitive Safety)

这是一种更乐观的市场逻辑:如果消费者和企业客户重视AI安全,市场竞争会奖励安全实践更好的公司。Anthropic的市场成功,部分证明了这一逻辑——其安全叙事确实成为了差异化竞争优势,帮助其在企业市场中赢得了对安全敏感的客户(如金融和医疗行业)。

但这个模式有一个关键假设:客户能够有效评估AI系统的安全性。对于消费者而言,这几乎不可能;对于企业客户而言,安全评估能力参差不齐。斯坦福大学人类中心AI研究所(HAI)在2025年发布的AI Index Report中指出,超过60%的企业AI采购决策者承认缺乏评估AI系统安全性的专业能力。当大多数客户无法有效评估安全性时,市场竞争会更多奖励感知安全(perceived safety)而非实质安全(actual safety)。

模式三:监管驱动安全(Regulatory Safety)

欧盟的AI Act代表了这一路径。该法案于2024年8月1日正式生效,其中第6条和附件III对”高风险AI系统”设定了强制性合规要求,包括风险管理体系、数据治理、技术文档、人类监督机制等。针对通用AI模型(GPAI),第52条要求提供者进行系统性风险评估并向欧盟AI办公室报告。这个模式的优点是不依赖企业自律;缺点是监管速度难以跟上技术发展速度(AI Act从提案到生效历时3年),且存在严重的跨境执行难题——OpenAI的服务器和研发团队主要位于美国,欧盟的执行能力受到地理管辖权的限制。

OpenAI的Charter更新,实际上是在向监管机构发出一个信号:自律式安全模式正在失效,行业需要更强的外部约束机制。但这个信号是否会被有效接收并转化为监管行动,取决于各国政府的政治意愿和技术理解能力。美国方面,拜登政府2023年10月发布的AI行政令(Executive Order 14110)在2025年被特朗普政府部分撤销,联邦层面的AI安全监管仍处于碎片化状态。

The Conversation的分析提出了一个核心问题:当OpenAI从非营利架构转向营利性架构,非营利董事会对商业决策的约束力将系统性弱化,这意味着原本内嵌在治理结构中的安全制衡机制正在消失。(来源: The Conversation, 2026-04-28)

这是大多数分析者没有充分展开的第三层洞察:OpenAI的Charter更新,不只是一次价值观声明的修订,而是一次治理结构的重组。

被删除的安全承诺,不只是文字,它们是治理机制的一部分——它们为内部安全团队提供了反对商业化压力的文件依据(OpenAI前超级对齐团队负责人Jan Leike在2024年5月离职时公开表示,安全文化已被商业优先级所侵蚀),为外部研究者和监管者提供了问责的锚点,为投资者设定了回报预期的边界。

当这些文字消失时,与之相关的治理机制也随之弱化。这是一个比”OpenAI不再重视安全”更精确、也更令人担忧的表述:OpenAI的治理架构正在系统性地减少对商业化决策的安全制衡。


第七章:基因突变之后

让我们回到最初的问题:这次Charter更新意味着什么?

对OpenAI而言,这是一次身份的正式确认。从2019年创建有上限利润结构,到2022-2023年ChatGPT的爆发式商业化(ChatGPT在2022年11月发布后2个月内用户突破1亿,2023年OpenAI通过ChatGPT Plus订阅和API服务实现了约16亿美元收入),再到2025-2026年的完全营利性转型,OpenAI的商业化进程早已在事实层面完成。Charter的更新,只是让文件与现实对齐——一家已经在商业上运作的公司,终于停止用安全研究实验室的语言描述自己。(来源: Reuters, 2025-10-02)

从这个角度看,Charter更新是诚实的。但诚实有时比虚伪更危险,因为它关闭了用旧承诺进行问责的可能性。当原始Charter还在时,任何人——内部员工、外部研究者、监管者——都可以指着那些文字说:”你们承诺过。”现在,这个问责工具被正式废除了。

对AI行业而言,OpenAI的转变具有示范效应。当行业的早期领导者和安全叙事的原创者系统性地削弱安全承诺时,它向整个行业发出了一个信号:安全承诺是可以被商业化进程所侵蚀的,而这种侵蚀不会带来致命的声誉后果。OpenAI的市值在Charter更新后并未出现显著下跌,这本身就是一个数据点。

对监管者而言,这是一个明确的警示:自律式AI安全模式的局限性已经在最重要的案例上得到了验证。依赖领先AI实验室的自我约束来保证AI安全,是一个在商业压力下无法持续的模式。

对用户和社会而言,最重要的问题是:谁来填补这个安全治理的真空?

目前来看,有几个候选答案,但每个都有明显的局限性:

Anthropic可以承担部分安全叙事的守护者角色,但它同样是商业公司,同样面临规模化压力,同样不能免疫于商业化对安全承诺的侵蚀。Anthropic的RSP框架虽然比OpenAI的新原则更具约束力,但RSP本身也是自律性文件,没有外部强制执行机制。

学术界和独立安全研究者可以提供外部监督,但缺乏资源获取前沿模型的内部信息,其问责能力受到严重限制。METR(Model Evaluation and Threat Research)和Apollo Research等独立评估机构正在尝试填补这一空白,但它们的评估范围和深度仍然受限于AI公司愿意提供的访问权限。

政府监管可以提供强制性约束,但监管速度和技术理解能力构成根本性瓶颈。美国国家标准与技术研究院(NIST)的AI风险管理框架(AI RMF 1.0)提供了一个有价值的参考框架,但它是自愿性标准,缺乏强制执行力。

这意味着,在可预见的未来,AI安全治理将处于一个结构性真空状态——自律模式正在失效,监管模式尚未成熟,竞争性安全模式依赖于无法保证的市场条件。

OpenAI的Charter更新,是这个真空状态最清晰的一次显现。


结语:so what

如果你是一位企业CTO,正在评估是否将核心业务流程迁移到OpenAI的API上,这次Charter更新意味着什么?

它意味着:你正在与一家明确将商业规模化置于安全约束之上的供应商建立深度依赖关系。这不是说OpenAI的产品不安全——而是说,当商业利益与安全承诺发生冲突时,你现在知道OpenAI会选择哪边。这应该影响你的供应商多元化策略(考虑将关键工作负载分散到Anthropic Claude、Google Gemini等替代方案)和合同条款谈判(特别是关于模型行为变更通知、安全审计权限和数据处理透明度的条款)。

如果你是一位AI政策研究者或监管官员,这次更新意味着什么?

它意味着:自律式AI安全模式的最重要案例已经宣告失败。依赖领先AI实验室的自我承诺来保证公共安全,是一个在商业压力下无法持续的机制。现在是认真讨论强制性外部审计、独立安全评估机制和跨境监管协调的时候了——不是在未来某个不确定的时间点,而是现在。欧盟AI Act的GPAI条款、英国AI安全研究所(AISI)的模型评估框架,以及正在讨论中的G7 AI行为准则,都是可以加速推进的现有机制。

如果你是一位AI研究者,这次更新意味着什么?

它意味着:你需要重新评估发表研究成果、与领先AI实验室合作的条件和方式。当一家公司系统性地削弱安全承诺时,与其合作的研究者在某种程度上为其安全叙事背书。这个代价是否值得,是每位研究者需要独立判断的问题。Jan Leike和Ilya Sutskever的先后离职,已经为这种判断提供了参考坐标。

最后,对于所有关注AI发展的人,这次Charter更新传递了一个不应被低估的信号:

当一家以安全为创始使命的组织,在商业化压力下系统性地删除安全承诺,这不是一个公司的个别选择,而是一个行业模式的预演。

在AI能力快速提升的当下,这个预演的后果,我们可能还没有充分的工具来评估。但有一件事是确定的:OpenAI在2018年写下那些安全承诺时,它们是有意义的——不是因为它们完美,而是因为它们代表了一种约束商业冲动的尝试。

2026年4月,这个尝试正式结束。

接下来由谁来尝试,是这个时代最重要的未解问题之一。


参考资料

  1. OpenAI just updated its principles. Here’s what changed since the original version, 8 years ago. — Business Insider, 2026-04

  2. Sam Altman Published New OpenAI Principles Hours Before a $134B Trial—Here’s What’s Missing — Techloy, 2026-04

  3. OpenAI Publishes 5 Principles For Its AGI Push — Forbes / Ron Schmelzer, 2026-04-27

  4. OpenAI has deleted the word ‘safely’ from its mission – and its new structure is a test for whether AI serves society or shareholders — The Conversation, 2026-04-28

  5. A business that scales with the value of intelligence — OpenAI官方博客, 2026-04

  6. The state of enterprise AI — OpenAI官方博客, 2026

  7. OpenAI closes $6.6 billion funding round at $157 billion valuation — Reuters, 2025-10-02

  8. Anthropic’s Responsible Scaling Policy, Version 3.0 — Anthropic, 2025-10

  9. The AI Index 2025 Annual Report — Stanford HAI, 2025

  10. EU AI Act: first regulation on artificial intelligence — European Parliament, 2024-08-01

主题分类:ai-org-structure