Musk出庭承认「没读细则」却预言AI明年超越人类:这场1220亿美元诉讼的真正赌注
2026年4月28日,加州奥克兰联邦法院。
旁听席上挤满了记者、法律学者和科技行业人士。他们不只是来看一场科技亿万富翁之间的商业纠纷——他们来见证一个可能改写AI行业治理规则的历史性时刻。
站在证人席上的Elon Musk承认了一件令旁听者哑然的事:他没有阅读OpenAI从非营利组织转变为营利公司的「细则」——那些他在法庭上指控Sam Altman违背的规则,他自己从未完整读过。
第二天,TechCrunch报道,Musk在交叉质询中承认,他创立的xAI曾使用OpenAI的模型训练Grok——也就是说,他正在起诉OpenAI背叛使命的同时,他的公司正在商业性地使用OpenAI的技术成果。
但最让旁观者迷惑的,是第3天的另一段证词。记者问Musk:「AI何时会比人类更聪明?」Musk回答:「最早明年。」
一个预言家,坐在证人席上,起诉别人背叛了「造福全人类」的使命——而他自己正在全力运营一家追求同样目标的营利性AI公司,同时承认他的公司使用了被告的技术成果,并且他从未读过他声索违约的那份合同细则。
这是一场关于什么的审判?简短的回答是:关于「AI时代谁有权定义造福人类」。更复杂的回答是:关于使命承诺的法律约束力、商业化转型的治理边界,以及当AI越来越接近人类认知边界时,我们是否还有足够的制度能力来监督它的发展方向。
第一章:诉讼的起源与裂缝
Musk与OpenAI的故事始于2015年。彼时,Musk、Altman和Greg Brockman在旧金山一家高档餐厅的餐巾纸上勾勒出了OpenAI的雏形:一个开放的、非营利的AI研究机构,使命是确保通用人工智能(AGI)「造福全人类」。
Musk成为早期最大捐赠者之一,据估计累计捐赠约1亿美元。然而2018年,他以「管理层分歧」为由,从OpenAI董事会辞职。2023年,当OpenAI已经推出ChatGPT并完成与微软的百亿美元合作时,Musk开始公开批评OpenAI背离初衷。2024年,他正式提起诉讼。
诉讼的核心主张是:Altman等人与Musk之间存在一个明确的协议——OpenAI将永远维持非营利结构,其研究成果将向公众开放。Musk声称,他正是基于这一承诺才捐款和参与。OpenAI2023年的商业化转型——包括向微软授权、推出商业API、成立营利性子公司——违背了这一承诺,构成合同欺诈和违反信托义务。
然而,加州联邦法官William Orrick在4月24日(开庭前4天)已经驳回了最重要的欺诈指控。原因在于:Musk无法证明他对OpenAI的具体营利化条款产生了「合理依赖」——这个判断在他承认没有读细则之后,显得格外讽刺。
但欺诈指控被驳回不代表诉讼结束。Orrick保留了更具实质意义的核心争议:OpenAI是否违反了其非营利章程?这个问题将由12位陪审员决定。
陪审团4月27日完成组建。这12位来自奥克兰地区的普通市民,将在未来数周内,对涉及AI行业命运的法律问题作出判断。
第二章:证人席上的矛盾三重奏
审判开始后,Musk连续数天出庭作证。这几天发生的事情,从法律策略看几乎是一场灾难,但从AI行业治理视角看,却意外地产生了深刻的启示。
矛盾一:没读细则却要求细则被遵守
4月30日,OpenAI律师在交叉质询中问道:「您在起诉状中主张OpenAI违反了从非营利到营利转型的程序要求。您是否阅读过OpenAI章程中关于这一转型的具体条款?」
Musk的回答是:「没有,没有完整阅读。」
这一承认从法律层面严重削弱了他的主张。「合理依赖」(reasonable reliance)是欺诈指控的核心要件——你必须证明你基于被告的具体陈述做出了某种决策性行为。如果你承认没有读过那些条款,很难说你对其产生了合理依赖。这正是法官已经驳回欺诈指控的逻辑基础。
矛盾二:起诉对手使用AI却承认用了对手技术
TechCrunch在4月30日披露了审判中更具爆炸性的细节:Musk承认,xAI在训练其AI产品Grok的早期阶段,使用了来自OpenAI模型的输出数据作为训练素材。
这个承认的法律影响尚不明确(OpenAI并未就此提起反诉),但其道德涵义是清晰的:Musk在起诉OpenAI「背叛公众利益」的同时,他的营利性AI公司正在从商业上利用OpenAI的技术积累。这并不代表xAI做错了什么——使用竞争对手模型输出训练自身模型是行业中普遍存在的做法,合法性存在争议但从未被完全禁止。但它让Musk的道德指控显得空洞。
更值得深思的是这一现象背后的行业本质:在AI军备竞赛中,每一家公司都在使用其他公司的模型、数据和研究成果作为基础。OpenAI的早期研究依赖谷歌DeepMind的先驱工作;Llama系列的诞生受益于GPT架构的公开研究;几乎每一家AI实验室都在使用来自互联网的数据,其中包括大量由人类无偿产出的内容。在这个「站在巨人肩膀上」的生态中,Musk对OpenAI的道德指控——「背叛了开放共享的使命」——具有非凡的讽刺意味,因为这个生态的每一个参与者都是这种「开放」传统的受益者,同时也在某种程度上成为了其终结者。
矛盾三:预言AGI即将到来,却在诉讼中争夺使命解释权
4月29日,Musk在回答记者问题时表示:「AI最早明年就会比人类更聪明。」(来源:Reuters 2026-04-29审判报道;CNBC庭审实时直播记录)
在审判语境中,这句话具有特殊的讽刺性。如果AGI在2027年到来,那么:
- 今天关于OpenAI非营利章程的法律解释,在那个世界里将意味着什么?
- 「造福全人类」这句使命宣言的真正执行者,将是法庭判决还是超越人类智能的AI系统本身?
- 当AI已经比人类更聪明,人类法庭是否还有能力判断AI公司是否「造福了全人类」?
Musk没有回答这些问题。但他的预言与他的诉讼之间的张力,已经成为这场审判最发人深思的注脚。
这种预言与诉讼并存的矛盾,让人联想到一个古老的哲学悖论:如果你预见到一种情况的出现是不可避免的,你的诉讼是否只是在拖延不可避免的事情?或者,正因为它不可避免,才更需要在它到来之前建立正确的治理规则?Musk的行动可以被解读为两者之一——历史的裁决将取决于未来5-10年AI治理格局的实际走向。
第三章:1220亿美元的加速度与法律时间差
这场审判的时间节点,在OpenAI看来几乎称得上完美。
4月25日,就在奥克兰开庭前3天,OpenAI宣布完成了1220亿美元的融资——这是人类历史上单笔最大的私人股权融资。
1220亿美元的组成:
- 软银领投,Masayoshi Son出席签约仪式,公开称OpenAI为「AI霸主」
- 微软追加投资(金额未披露,但确认继续深化合作关系)
- 来自阿联酋ADIA、沙特PIF等中东主权财富基金的大量资本注入
- 据报道多家美国和欧洲机构投资者参与
融资完成后,OpenAI的估值据报超过3000亿美元——对比2019年时约10亿美元的估值,7年增长超过300倍。
OpenAI代理律师Marc Toberoff在开庭陈述中抓住这一时机,提出了一个直接对抗Musk诉求的论点:「这家公司通过营利化转型成为了世界上最有价值的AI企业之一。正是这一转型,使得GPT-5、ChatGPT等技术能够真正触达全球数亿用户,真正造福了全人类——而不是停留在一个研究机构的报告中。」
这个论点的逻辑是:如果没有2019年与微软的合作和此后的商业化转型,就没有足够的资本推进前沿AI研究,就没有1220亿美元,就没有将造福人类的AI实际交付给数亿人的能力。
但这个论点本身含有一颗定时炸弹:如果「造福全人类」可以为任何商业化决策背书,那这个条款就失去了约束价值。任何公司都可以声称其商业行为最终服务于更大的善——这正是Musk诉讼中最有力的部分。
他的律师反驳道:「按照这个逻辑,一家声称’最终目标是造福全人类’的公司,可以在没有任何外部监督的情况下,做任何商业决策。非营利使命的全部意义在于它的约束力,而不是它的灵活解释空间。」
这个辩论没有简单的答案。但它精确击中了AI行业一个更广泛的困境:如何在使命承诺和商业可行性之间建立真正有效的约束机制?
第四章:法官的手术刀与治理先例
Orrick法官的裁定是理解这场审判走向的关键。
4月24日,他做出了一个精妙的外科手术式切割:驳回欺诈指控(Musk的最具公众杀伤力的主张),但保留核心争议——OpenAI是否违反了其非营利章程。
为什么保留核心争议如此重要?
因为这意味着法庭将被要求正式回应以下问题:
问题1:非营利AI组织的「使命条款」是否具有可执行的法律约束力?
目前美国法律对此没有明确先例。加利福尼亚州非营利法律允许检察长对违反非营利使命的行为提起诉讼,但允许私人捐赠者起诉的先例极为罕见。如果Musk胜诉,将开创捐赠人可以就使命偏离提起诉讼的法律通道。
问题2:非营利的「公众利益」使命能否转让给营利实体?
OpenAI的当前结构是「营利性子公司由非营利母公司控制」。但如果营利子公司的决策权事实上压过非营利母公司,这个结构是否真正维持了非营利使命的执行?Anthropic(目前是公益公司PBC架构)、Mistral等公司都在关注这个裁决。
问题3:当原始捐助者起诉使命违反时,法院是否有管辖权?
如果法庭对此给出肯定回答,将大幅增加AI使命承诺的法律约束力。所有曾经接受基于使命的捐赠的AI组织,都需要重新审视其治理文件。
专业法律分析:据多位法律分析者的观点(基于公开发表的学术和媒体分析综合),这类案件的先例影响可能远超判决本身。即使Musk最终败诉,审判过程中法庭对「使命条款可执行性」的讨论,也会成为未来相关诉讼的参考依据。这一判断获得了数位非营利组织法律领域学者在公开媒体上的类似表述支持,但具体个人观点请以各自公开发表的原文为准。
第五章:三种裁决,三种AI治理未来
情景A:OpenAI完全胜诉
如果法庭裁定OpenAI的营利化转型完全符合其非营利章程的法律解释,其影响将包括:
- 「使命公司」可以在没有创始捐赠人否决权的情况下进行商业化转型
- AI行业的使命承诺将主要依赖自愿约束而非法律约束
- Anthropic、Mistral等公司的类似转型路径获得法律背书
- 更广泛地说,这可能加速AI公司的商业化步伐,因为使命约束的法律风险降低
这种情景下,真正的赢家可能不是OpenAI,而是整个「使命导向」的科技创业生态:有了这个先例,任何以「造福人类」为旗帜的科技公司都可以在获得足够商业成功后合理化商业化决策,而不必担心早期使命承诺带来的法律约束。
这并不意味着使命宣言会消失——恰恰相反,如果法律不约束使命承诺,「使命」会成为一种纯粹的市场营销工具,用于吸引人才和投资,而非实际约束公司行为。有观察者认为,OpenAI胜诉的世界里,下一个声称「造福全人类」的AI公司,在说出这句话时心里更清楚它究竟意味着什么。
情景B:Musk部分胜诉(获得结构性救济而非金钱赔偿)
Musk最初的诉讼请求包括损害赔偿,但许多法律分析者认为,即使他胜诉,更可能的救济是结构性的——要求OpenAI建立独立监督机制、向非营利实体定期分配收益、或者对特定商业决策给予原始使命的「否决权」。
这将开创一个重要先例:AI使命承诺可以被法律强制执行,「技术加速主义」必须为公众利益留出空间。
对整个AI行业,这意味着:声称使命导向的AI公司,其治理文件将从「愿望清单」变成有法律约束力的契约。
具体而言,如果法庭要求OpenAI建立独立监督委员会,或者强制要求每年向非营利母体分配一定比例的收益(例如,法庭可能参考某些基金会的5%分配要求),那将给OpenAI带来显著的运营约束。1220亿美元融资的一部分预计用于算力基础设施建设,如果其中一定比例必须流向使命相关的公益活动,这将直接影响OpenAI的商业竞争力。
从更宏观的视角看,「部分胜诉」对AI治理的意义可能大于「完全胜诉」:它意味着法律承认使命承诺具有约束力,但同时给了商业化一定的弹性空间——这正是AI行业真正需要的那种精细化治理,而不是「要么完全开放、要么完全锁死」的二元选择。
情景C:庭前和解(目前业界认为最可能的结果)
Musk可能获得象征性补偿,OpenAI获得法律明确性,双方都避免了旷日持久的公开审判。但和解意味着这些治理问题将不会得到正式的法律解答。
然而,即使和解,这场审判已经产生了一个无法撤销的影响:它将「AI公司治理」从创业圈内部讨论,带到了联邦法庭、12位陪审员、和全球主流媒体的视野之下。
第六章:更深的裂缝——「造福人类」的权力真空
这场审判最终暴露的,不只是Musk与Altman之间的个人恩怨,而是AI时代一个更深层的权力真空:
当一家组织声称自己的使命是「造福全人类」时,谁有权监督这个使命是否被执行?
目前的答案是:几乎没有人。
美国各州检察长理论上可以监督非营利组织,但他们缺乏监督AI技术决策的专业知识。联邦监管机构还没有建立针对AI使命承诺的监管框架。国际社会虽有AI治理倡议(如欧盟AI法案、英国AI峰会宣言),但这些框架不能直接处理「非营利使命转让」这类具体问题。
这个真空产生了一个奇特的结果:目前唯一有能力挑战「造福全人类」使命解释的,是像Musk这样的私人原告——他自己同样是一个以「造福全人类」为旗帜的AI竞争者,同样缺乏第三方中立性。
Musk的诉讼无论结果如何,都揭示了这个悖论:我们需要一个比私人诉讼更系统的机制来监督AI使命承诺——但这个机制目前还不存在。
如何建立这个机制,是AI治理领域真正需要解答的问题。法庭上的每一天审判,都在用最昂贵的方式提醒我们这个缺失。
值得关注的是,这场诉讼发生的背景:2026年,全球主要经济体都在推进AI监管立法。欧盟AI法案已正式生效,分级管理高风险AI系统;英国发布了AI安全峰会承诺;中国出台了生成式AI服务管理暂行办法。但这些监管框架的设计,主要针对AI系统的「能力边界」和「安全要求」,几乎没有一部法规专门处理「AI使命承诺的可执行性」这个问题。
这意味着,如果这场审判产生了里程碑式的判决,它将在某种程度上填补一个全球监管真空——通过案例法而非立法,通过私人诉讼而非公共监管,通过奥克兰的一个法庭而非全球治理论坛。
还有一个深层问题值得思考:即便建立了监督机制,谁来判断AI公司是否「真正造福了人类」?这个判断本身就是一个哲学难题。ChatGPT让数亿人更高效地完成工作,这是「造福人类」;但它同时可能在某些情境下加速信息操纵、削弱批判性思维,这是「伤害人类」。一个非营利使命宣言如果要产生实际约束力,就必须回答这个判断问题——而这比任何法律文本的起草都要困难。
OpenAI和Musk都没有给出这个问题的答案。2026年4月份的奥克兰法庭不会给出这个答案。也许没有任何单一机构能够给出这个答案。但Musk的诉讼至少迫使整个行业必须正视:我们曾经以为「造福全人类」是一句无懈可击的使命宣言,但当它需要被法律解释的时候,它的模糊性反而成为了最大的问题所在。
真正的赌注
Musk可能会赢得这场诉讼,也可能会输。他没有读过的那些细则,可能会成为他失败的法律原因;xAI使用OpenAI模型的事实,可能会削弱他的道德可信度;他自己建立的营利性AI公司,可能会让陪审员对他的动机产生疑问。
但他已经赢得了他真正想要的东西:一场关于「AI时代谁有权定义造福人类」的公开辩论。
这个辩论不会在4月底的奥克兰法庭上结束。
当Musk作证「AI明年将比人类更聪明」时,他无意中揭示了这场诉讼最深的讽刺:如果他是对的,那么我们现在花时间在联邦法院辩论的这些「非营利章程解释」,将在那个世界到来之前就已经过时——因为届时将需要完全不同的治理框架,而不是对一份2015年写就的非营利章程的法律解释。
如果他是错的,这场审判树立的先例,将在未来数十年约束每一家声称「以使命为导向」的AI公司的行为,成为AI时代公司治理演进史上的一块基石。
无论哪种结果,赌注都已经足够大了。
而当陪审团最终作出裁决时,AI行业将不得不面对这个问题:我们是否已经为下一场这样的诉讼,建好了更好的答案?
一个更现实的担忧:这场审判的结果,将在相当程度上取决于12位陪审员是否理解非营利组织法律、AI治理的复杂性,以及「造福全人类」这类哲学性使命条款的法律解释方法。这不是在质疑陪审员的智识——而是在指出,当AI治理问题的复杂性已经超出传统法律框架的设计范围时,我们是否需要更专业化的争议解决机制?
欧盟正在通过立法手段建立AI监管框架(AI法案);英国正在构建行业自律加政府监督的混合体系;中国已经出台了针对生成式AI的专项法规。但在美国,AI治理的核心问题,仍然可能最终由一场私人诉讼、一个普通法庭的陪审团来决定。
这个现实,或许比Musk的矛盾证词更值得整个行业深思。
从Altman视角的反思:在整个审判过程中,Sam Altman也多次出庭作证(据Reuters报道,双方都在庭审中相互指控对方歪曲最初的创立理念)。Altman的核心论点是:OpenAI的使命是开发造福全人类的AGI,而实现这个使命需要大量资本——因此营利化不是背叛使命,而是完成使命的手段。
这个论点的逻辑结构具有某种封闭性:当你的使命足够宏大,任何资本化决策都可以被合理化为「实现使命的手段」。当Musk指出这个封闭性时,他的指控虽然有其个人动机,但在逻辑结构上并非毫无根据。
问题不在于营利化本身——企业需要资本才能运营和发展,这是事实。问题在于:当「使命实现手段」可以无限扩展解释时,「使命约束」就失去了约束力。如何在「足够灵活以实现使命」和「足够明确以约束行为」之间划出一条有意义的边界,这是这场审判提出的真正问题,也是AI时代公司治理的核心挑战之一。
这个困境不是OpenAI独有的。Anthropic同样声称自己是「使命驱动的AI安全公司」,同样接受了来自大公司(Google、Amazon)的巨额投资,同样在追求商业上的成功。Anthropic的公益公司(PBC)结构在法律形式上比OpenAI更接近「使命锁定」——但如果Musk的诉讼最终证明法律约束无效,Anthropic的PBC结构也可能只是一纸文件。AI行业真正需要的,是一种能在商业成功和使命约束之间维持长期张力的机制设计——而这个机制设计,比任何法律文本的起草都要困难得多。
结语:Musk坐在证人席上预言AI明年超越人类。也许他是对的,也许他是错的。但无论如何,在那个时刻到来之前,我们仍然需要回答:谁来守护AI的使命?守护的机制是什么?如果连旧金山餐巾纸上写下的承诺都无法被追究,那么任何AI使命宣言都只是一纸空文。
奥克兰法庭的这场审判,是我们为这个问题寻找答案的一次笨拙但必要的尝试。我们或许找不到完美答案,但审判本身——每一天的庭审记录,每一份证词和法律文件——正在为这个问题建立一个实践层面的历史档案。在真正成熟的AI治理框架出现之前,这个档案可能是我们拥有的最接近「答案」的东西。
参考资料:
- Reuters: Elon Musk trial against Sam Altman to reveal OpenAI power struggle, jury is seated (2026-04-27)
- Reuters: Musk testifies he did not read ‘fine print’ about OpenAI becoming for-profit company (2026-04-30)
- TechCrunch: Elon Musk testifies that xAI trained Grok on OpenAI models (2026-04-30)
- Reuters: US judge dismisses Musk’s fraud claims in OpenAI case, plans to proceed to trial (2026-04-24)
- OpenAI: OpenAI raises $122 billion to accelerate the next phase of AI (2026-04-25)
- Reuters: Elon Musk return to witness stand for cross-examination by OpenAI’s lawyer (2026-04-30)
- CNBC: Musk vs. Altman trial Day 4: Musk ends testimony, second witness takes stand (2026-04-30)