2026 年 3 月的一个周六,Elon Musk 在 X 上回复了 Demis Hassabis 分享的一段书摘。那段文字来自 Sebastian Mallaby 为 Hassabis 撰写的传记《The Infinity Machine: Demis Hassabis, DeepMind and the Quest for Superintelligence》,内容是 Hassabis 长期以来的一个核心信念:AI 可以帮助人类揭开现实世界的底层规则,科学本质上就是在宇宙中寻找更深层结构的过程——他甚至将其比作”理解上帝的心智”。Musk 的回复简短而意味深长:”I share Demis’s sentiments.”

然后对话急转直下。

Musk 紧接着表达了一个近乎悲观的判断:像牛顿和爱因斯坦那样的根本性科学突破,在未来将变得越来越罕见。他认为现代物理学已经解释了现实世界的绝大部分——”夸克、轻子和光子的模式几乎就是一切”。未来的主要工作不是发现新的基本定律,而是基于已有知识构建新系统。他用一句话总结了自己的世界观:”Reality is the ultimate eval. Physics is the law, everything else is a recommendation.”——现实是终极的评估函数,物理是法律,其他一切都只是建议。

Hassabis 没有直接反驳,但他的回应暗含了一整套不同的认识论。他表示,AI 工具或许能为尚未解决的科学问题找到”优雅而紧凑的描述”(elegant and compact descriptions),尽管这需要大规模的模式分析。

这场对话的表面是两位科技巨头的友好交流。但如果你把它放在过去三年 AI 科学发现的实际进展中去审视,会发现它触及了当代科学哲学和 AI 研究路线图中一个最核心的分歧:AI 究竟是工程工具,还是认知引擎?它在科学中的角色,是加速已知范式内的搜索,还是有可能催生全新的范式?

两种世界观的碰撞

理解这场对话,需要先理解两个人各自的知识背景和利益立场。

Musk 是工程师出身。他的整个商业帝国——Tesla、SpaceX、Neuralink、The Boring Company——建立在对已有物理定律的极致工程化应用上。火箭复用基于经典力学和材料科学,电动车基于电化学和电磁学,脑机接口基于神经科学的现有理解。Musk 的成功模式是:拿到已知的物理边界,然后用工程手段逼近这个边界。在这个框架里,”发现新的自然定律”不是关键瓶颈,”把已知定律转化成可工作的系统”才是。

这解释了他为什么说”大部分未来的工作是创建新系统,而非理解基本定律”。这不是反智,这是一个工程天才基于自身经验的合理推断。人类确实已经掌握了一套极其强大的物理理论——标准模型解释了已知宇宙中超过 99.99% 的现象。从纯粹的实用角度看,Musk 的判断难以反驳。

Hassabis 的轨迹完全不同。他是神经科学博士出身,从一开始创立 DeepMind 的目标就是”解决智能问题,然后用智能解决一切其他问题”。他的知识论更接近于一种柏拉图主义——他相信自然界存在尚未被人类发现的深层数学结构,而 AI 作为一种超越人类认知带宽的工具,有可能看到人类看不到的模式。

这不仅仅是哲学态度的差异,更是商业路线的差异。DeepMind 的整个研究议程——从 AlphaFold 到 GNoME 到 FunSearch——都建立在”AI 可以做出科学发现”这个前提之上。如果 Musk 是对的、基础科学发现的空间已经所剩无几,那么 DeepMind 最核心的叙事就失去了根基。反过来,如果 Hassabis 是对的、AI 确实能打开全新的科学领域,那么 DeepMind 就不仅仅是 Google 旗下的一个研究实验室,而是人类认知史上的一个转折点。

所以,这场推特对话不是茶余饭后的闲聊。它是两种技术哲学、两种商业模式、两种对未来的押注之间的根本性冲突。

证据清单:AI 已经做到了什么

让我们暂时搁置哲学争论,看看硬证据。

AlphaFold:结构预测的暴力美学。 2020 年,AlphaFold 2 在 CASP14 竞赛中以碾压性优势获胜,对约三分之二的蛋白质结构预测达到了 GDT 评分 90 分以上(100 分为完全匹配实验结构)。2021 年,DeepMind 公开了覆盖超过 2 亿种已知蛋白质的预测结构数据库。2024 年,AlphaFold 3 进一步扩展到蛋白质与 DNA、RNA、配体和离子的复合体结构预测,准确率比此前最优方法提升至少 50%。Hassabis 和 John Jumper 因此获得 2024 年诺贝尔化学奖。

但这里有一个关键的细微之处:AlphaFold 做到的是结构预测,而非折叠机制的解释。它能告诉你一条氨基酸链最终会折叠成什么形状,但它不能告诉你为什么会折叠成这个形状。多位研究者指出,蛋白质折叠问题在机制层面仍未被真正解决。这恰好映照了 Musk 与 Hassabis 之间的分歧——AlphaFold 是一个极其强大的工程工具,还是一个通向新物理理解的窗口?答案取决于你怎么定义”科学发现”。

GNoME:380,000 种新材料。 2023 年 11 月,DeepMind 在 Nature 上发表了 GNoME(Graph Networks for Materials Exploration)的成果。这个深度学习系统预测了 220 万种新晶体结构,其中 38 万种被认为是稳定的——相当于人类此前通过实验和计算方法在数十年间积累的全部已知稳定材料数量的近 10 倍。在 GNoME 之前,Inorganic Crystal Structure Database 中经实验验证的计算稳定结构约为 2 万种;算上 Materials Project 等计算方法的贡献,这个数字也不过 4.8 万种。GNoME 一举将其扩展到 42.1 万种。

更值得注意的是,GNoME 发现了约 5.2 万种类石墨烯层状化合物(此前仅发现约 1000 种),以及 528 种潜在的锂离子导体(此前同类研究仅发现约 20 种)。劳伦斯伯克利国家实验室的研究人员已独立合成了其中 736 种新材料,验证了预测的可行性。

FunSearch:用大语言模型做数学发现。 2023 年 12 月,同样是 DeepMind,在 Nature 上发表了 FunSearch 的成果。这个系统将大语言模型与自动化评估器配对,通过进化式的迭代搜索,在极限集合问题(cap set problem)上发现了新的数学解。这是大语言模型首次在真正的开放数学问题上做出可验证的新发现。FunSearch 的关键创新在于它输出的是可读的计算机程序——即人类可以理解其推理过程,而非仅仅得到一个黑盒答案。

把这三个案例放在一起看,一个更完整的图景浮现出来:这三个项目都是重大成就,但如果严格按照 Musk 的标准来判断——发现新的自然定律、牛顿或爱因斯坦级别的突破——它们都不够格。它们做到的是在已知理论框架内进行前所未有的大规模搜索和优化。这正是问题的微妙之处。

“发现”与”搜索”的灰色地带

Musk 和 Hassabis 的分歧,本质上是对”科学发现”这个概念的定义之争。

Musk 采用的是一种经典的库恩式科学哲学框架:真正的科学突破是范式转换——从牛顿力学到相对论,从经典物理到量子力学。这些是认知结构的根本性重组,需要一种几乎是审美性的直觉跳跃。在这个定义下,AI 目前做的一切——无论多么令人印象深刻——都只是”常规科学”(normal science),即在已有范式内解决谜题。

Hassabis 采用的则是一种更连续、更渐进的发现观。在他看来,找到 38 万种新的稳定材料就是科学发现。预测蛋白质结构就是科学发现。发现新的数学解就是科学发现。发现不一定非得是重写教科书级别的范式革命,它可以是在一个巨大的搜索空间中识别出人类此前无法触及的有意义的模式。

但存在第三种视角,可能比两种立场都更接近现实:发现是一个频谱,而非二元分类。

在科学史上,绝大多数重要进展既不是牛顿式的范式革命,也不是单纯的应用搜索,而是介于两者之间的某种东西。门捷列夫发明元素周期表时,他并没有发现新的物理定律,他做的是在已知化学数据中识别出一种人类之前未注意到的深层模式——然后用这个模式预测了当时尚未被发现的元素。这算”发现”还是”搜索”?

从这个角度看,Hassabis 所说的”优雅而紧凑的描述”恰好位于”搜索”和”发现”的交界处。如果 AI 能在粒子物理的实验数据中找到一种比标准模型更简洁、更优雅的数学描述,它算不算发现了新的物理?严格来说它没有推翻任何已知定律,但它可能揭示了一种更深层的结构。这种”发现”恰好是 AI 最擅长的领域——在人类无法直接处理的高维数据中识别压缩模式。

被忽视的第三方:科学社区在想什么

这场 X 上的对话有一个显著的缺失:职业科学家的声音。

一方面,以 Michael Levitt(2013 年诺贝尔化学奖得主)为代表的计算科学家们普遍对 AlphaFold 式的成就持高度肯定态度。他们的逻辑是:科学的核心是预测和验证,如果一个系统能做出准确预测并被实验验证,那它就在做科学。

另一方面,理论物理学家们的态度则更为谨慎。Sabine Hossenfelder 等人多次指出,当前的 AI 系统本质上是极其高效的曲线拟合器——它们能在数据中找到统计规律,但不能区分”巧合的相关性”和”因果性的定律”。

还有第三类声音,来自科学哲学家和认知科学家。他们提出了一个更根本的问题:人类科学发现的本质可能不是搜索,而是表征变换(representational change)。牛顿的突破不在于他收集了比别人更多的运动数据,而在于他发明了微积分这种全新的数学语言来描述运动。爱因斯坦的突破不在于他分析了更多的电磁学实验,而在于他重新定义了同时性这个概念。这些突破的核心是提出新的描述框架,而非在已有框架内搜索。

当前的 AI 系统——包括 DeepMind 的所有成果——都在人类预定义的表征空间内运作。它们都不能自发地发明一种全新的表征方式。如果科学发现的核心确实是表征变换,那么当前的 AI 距离”牛顿级别的突破”可能不是量的差距,而是质的差距。

Musk 的真实赌注

值得注意的是,Musk 在这场对话中的立场与他自己的行动之间存在一个有趣的张力。

如果他真的相信基础物理发现的空间已经封顶,那么他应该对 xAI 的定位感到非常舒适——因为在这个世界观下,AI 的最大价值不在于做科学发现,而在于做工程优化和系统构建。这恰好是 xAI 旗下 Grok 的定位方向:一个通用助手,而非科学发现引擎。

但如果 Hassabis 是对的,Musk 就面临一个战略困境。DeepMind 在”AI 做科学”这条赛道上已经建立了至少三到五年的领先优势——从人才储备到方法论到数据积累到科学界的信任度。xAI 要进入这个领域,几乎要从零开始。

“I share Demis’s sentiments” 这句开场白因此显得颇具深意:Musk 先表达了价值观层面的认同(谁不想理解上帝的心智?),然后用”但基本定律已经差不多被发现完了”这个判断,巧妙地将 DeepMind 的核心叙事转化为一个”伟大但已接近完成的历史任务”。这是一种高水平的话语策略:不否定对手做过的事,但否定对手还能做多少新的事。

那么,谁对了?

短期内(五到十年),Musk 可能更接近正确。当前 AI 系统的能力边界确实更适合做”已知框架内的大规模搜索”而非”发明新框架”。在这个时间尺度上,AI 对科学的最大贡献可能确实是工程性的——更快的材料筛选、更准的蛋白质结构预测、更高效的药物设计。

长期而言(二十年以上),Hassabis 的赌注可能更值得关注。如果 AI 系统能够发展出真正的表征变换能力——不仅在已有概念空间中搜索,还能发明新的概念空间——那么一切赌注都会改变。

最可能的现实是:未来的重大科学突破不会是纯 AI 的,也不会是纯人类的。它将是人类科学家使用 AI 工具在人类无法独自到达的搜索空间中发现模式,然后由人类对这些模式进行概念化和理论化。发现 38 万种新材料是 AI 做的,但决定哪些值得合成、理解它们为什么稳定、将这些发现纳入一个更广泛的理论框架——这些仍然需要人。

这场推特对话的真正意义不在于谁对谁错,而在于它暴露了一个整个行业都在回避的问题:我们正在用 AI 加速科学,但我们对”科学发现到底是什么”这个问题本身,理解得远远不够。如果我们连目标都没有清晰地定义,又怎么知道我们是否正在接近它?

这是 Musk 和 Hassabis 都应该认真思考的问题。但他们可能都不会。因为对 Musk 来说,答案不重要——他的公司不需要新物理定律也能赚钱。对 Hassabis 来说,答案也不重要——只要 DeepMind 持续产出 Nature 论文和诺贝尔奖,”AI 能否做真正的科学发现”就永远是一个有利可图的开放问题。

真正需要答案的是我们所有人。因为如果 AI 只是一个更快的搜索引擎,那么科学的未来取决于人类能否继续产生牛顿和爱因斯坦式的天才。如果 AI 是一个认知引擎,那么科学的未来取决于我们能否正确地设计和引导这种新型的认知能力。这两条路通向完全不同的研究投资策略、教育体系和人才培养模式。赌错了方向,代价将以十年为单位来计算。

参考资料

  1. Elon Musk, Demis Hassabis exchange views on AI’s role in scientific discovery — Economic Times, 2026
  2. Scaling deep learning for materials discovery — Nature, 2023
  3. Millions of new materials discovered with deep learning — Google DeepMind, 2023
  4. FunSearch: Making new discoveries in mathematical sciences using Large Language Models — Google DeepMind, 2023
  5. Highly accurate protein structure prediction with AlphaFold — Nature, 2021