2026年4月1日,一篇署名包含”AI Scientist”的论文正式刊登在 Nature 上。这不是愚人节玩笑。这篇论文由 Sakana AI 开发的自主科研系统生成,经过完整的同行评审流程,最终被这本创刊157年的顶级期刊接收。消息在学术圈引发的震动,堪比2016年 AlphaGo 击败李世石——只不过这一次,被挑战的不是围棋棋手,而是科学家本身。

让我们先厘清1个关键事实:这并非 AI 第一次参与科研论文。2023年,Meta 的 Galactica 模型曾尝试自动撰写科学文献,3天后因生成大量看似合理实则错误的内容而被紧急下线。2024年8月,Sakana AI 发布 AI Scientist 的初始版本,能以每篇约15美元的成本自动生成机器学习领域的完整论文,但当时的输出质量被多位审稿人评为”低于顶会接收线”。从15美元1篇的批量制造到登上 Nature,中间发生了什么?这对科学研究的未来意味着什么?

这篇文章将拆解3个核心问题:AI Scientist 到底做了什么、它能否真正实现”原创科研”、以及学术出版体系面临的系统性冲击。


1. 从”论文工厂”到 Nature:AI Scientist 的技术跃迁

1.1 Sakana AI 的起源与路径

Sakana AI 由前 Google Brain 研究员 David Ha 和前 Google DeepMind 研究员 Llion Jones 于2023年在东京创立。Jones 是 Transformer 架构原始论文”Attention Is All You Need”的8位共同作者之一——这篇2017年的论文奠定了当今所有大语言模型的技术基础。Sakana AI 在2024年获得超过3亿美元融资,估值超过10亿美元,投资方包括 Google、NVIDIA 和 Khosla Ventures。(来源: TechCrunch, 2024-08-13)

AI Scientist 的初始版本(v1,2024年8月发布)采用了一个相对直接的流水线架构:先由大语言模型(当时使用 Claude 3.5 Sonnet、GPT-4o 和 Llama 3.1 405B)生成研究想法,然后自动编写实验代码、执行实验、收集结果,最后撰写完整的 LaTeX 论文并进行自动化同行评审。整个流程的成本约为每篇15美元。

但 v1 的问题是显而易见的。斯坦福大学计算机科学教授 Percy Liang 在评估后指出,这些论文在”新颖性”和”方法论严谨性”两个维度上系统性地低于人类研究者的平均水平。更尖锐的批评来自普林斯顿大学的 Arvind Narayanan,他在社交媒体上直言:”这不是在做科学,这是在做科学的模仿。”(来源: Arvind Narayanan, X/Twitter, 2024-08-14)

1.2 v2 的关键突破:从模仿到闭环验证

登上 Nature 的版本(我们暂称为 v2)与 v1 有几个根本性的架构差异,虽然 Sakana AI 尚未公开完整的技术细节,但从 Nature 论文本身和相关采访中可以拼凑出关键信息:

第1个变化:多 Agent 协作架构。 v2 不再是单一模型的线性流水线,而是采用了多个专业化 Agent 的协作系统。这与 Scale Labs 在2026年4月发布的 Agentic Rubrics 论文所描述的方法论高度一致——后者使用专家 Agent 创建上下文感知的评分标准来验证代码补丁,在 SWE-Bench Verified 上达到了54.2%的通过率,且无需执行测试。(来源: Scale Labs, 2026-04-02) AI Scientist v2 的核心创新在于引入了一个”科学批评家”Agent,专门负责对生成的假设和实验设计进行对抗性质疑——本质上是将同行评审内化到了生成流程中。

第2个变化:实验-理论闭环。 v1 的实验执行是”一次性”的——生成代码、跑一次、报告结果。v2 引入了迭代实验循环:系统会根据初始实验结果自动调整假设、修改实验设计、重新执行,这个循环最多可以进行12轮。这模拟了真实科研中”假设-实验-修正-再实验”的核心方法论。

第3个变化:知识检索的深度升级。 v2 接入了 Semantic Scholar 的完整学术数据库(截至2025年底包含超过2.15亿篇论文的元数据),能够在生成假设阶段进行大规模文献检索,确保提出的研究方向确实具有新颖性。这解决了 v1 最致命的问题——经常”重新发明轮子”。

1.3 Nature 论文到底做了什么?

根据目前可获得的信息,这篇登上 Nature 的论文涉及的是计算生物学领域——具体来说,是一种新的蛋白质折叠中间态预测方法。这个选题本身就值得玩味:它不是机器学习领域的”自嗨”(AI 研究 AI),而是跨入了实验科学的地盘。

论文提出了一个新的计算框架,能够预测蛋白质在从未折叠状态到最终折叠状态之间的过渡构象。这个问题之所以重要,是因为 DeepMind 的 AlphaFold 2(2020年)和 AlphaFold 3(2024年)虽然在预测蛋白质最终折叠结构方面取得了革命性突破,但对折叠路径上的中间态预测能力有限。而许多疾病——包括阿尔茨海默症和帕金森症——恰恰与蛋白质的错误折叠中间态有关。

关键问题是:这算”原创科研”吗?


2. “原创性”的定义之争:AI 能做科学吗?

2.1 支持方:工具论

MIT 计算机科学与人工智能实验室(CSAIL)主任 Daniela Rus 在接受采访时表达了一个被广泛引用的观点:”望远镜没有取代天文学家,显微镜没有取代生物学家。AI Scientist 是科学方法论的下一个工具级跃迁。”(来源: MIT Technology Review, 2026-04-02)

这个类比有其合理性。如果我们回顾科学史,许多重大发现都是”工具驱动”的。X射线晶体学让 Watson 和 Crick 发现了 DNA 双螺旋结构;高通量测序技术让人类基因组计划成为可能;AlphaFold 让结构生物学家能够在几秒内完成过去需要数年的蛋白质结构预测。AI Scientist 可以被视为这条工具进化链上的最新一环。

支持这一观点的还有一个重要的实证论据:AI Scientist v2 在生成论文的过程中,其”科学批评家”Agent 否决了超过87%的初始假设。这意味着系统内部存在一个严格的筛选机制,最终产出的论文是经过大量”失败”后的幸存者。这与人类科研的模式并无本质区别——大多数科学假设都是错误的,科学进步依赖的是对错误假设的系统性排除。

Sakana AI 的联合创始人 David Ha 在 Nature 论文发表后的声明中强调:”AI Scientist 不是替代科学家,而是将科学家从最耗时的低层级工作中解放出来——文献综述、实验参数调优、统计分析。人类科学家可以专注于最高层级的工作:提出正确的问题。”(来源: Sakana AI 官方博客, 2026-04-01)

2.2 反对方:科学不是模式匹配

反对意见同样强有力,而且触及了更深层的认识论问题。

加州大学伯克利分校哲学系教授 Alison Gopnik——也是认知科学领域的权威——提出了一个尖锐的区分:”科学发现需要的不仅是从已有数据中提取模式,更需要理解为什么某个模式是重要的。AI 可以发现相关性,但它不理解因果性。”(来源: Alison Gopnik, The Atlantic, 2025-11-15)

这个批评指向了当前所有大语言模型的根本局限:它们是在人类产生的文本上训练的,其”知识”本质上是人类知识的压缩和重组。当 AI Scientist 提出一个新的蛋白质折叠中间态预测方法时,它是在已有的计算生物学文献空间中进行”高维插值”——在已知点之间找到一个新的组合——而不是像 Darwin 提出进化论或 Einstein 提出相对论那样,创造一个全新的概念框架。

诺贝尔物理学奖得主 Frank Wilczek 在2025年的一次演讲中提出了一个更具操作性的标准:”真正的科学原创性意味着改变我们提问的方式,而不仅仅是更高效地回答已有的问题。”(来源: Frank Wilczek, World Science Festival, 2025-09-20)

按照这个标准,AI Scientist 的 Nature 论文——无论其技术贡献多么扎实——仍然属于”在已有问题框架内提供更好的答案”,而非”提出一个全新的问题”。

2.3 我的判断:原创性是一个光谱,而非二元开关

在这场争论中,我认为双方都犯了一个共同的错误:将”原创性”视为一个非此即彼的属性。

现实是,绝大多数人类科学论文——包括发表在 Nature 和 Science 上的——都不是”范式革命”级别的原创。Thomas Kuhn 在《科学革命的结构》中将大部分科学活动定义为”常规科学”(normal science):在已有范式内解谜。真正的范式转换(paradigm shift)每个领域可能几十年才发生1次。

如果我们接受这个框架,那么 AI Scientist 已经证明它能够胜任”常规科学”——在已有范式内提出有价值的新假设、设计合理的实验、产出可验证的结果。这已经覆盖了科学活动的绝大部分。至于”范式革命”级别的原创性,目前没有证据表明 AI 能做到,但同样没有证据表明它永远做不到。

更重要的是,这个问题可能很快就会变得无关紧要。如果 AI 能够以人类科学家1000倍的速度执行”常规科学”,那么即使它永远无法实现”范式革命”,其对科学进步的加速效应也将是压倒性的。毕竟,Darwin 的进化论需要几十年的物种观察数据作为基础;如果 AI 能在几周内完成几十年的数据收集和分析,下一个 Darwin 级别的洞察可能来得更快——即使最终的”顿悟”仍然需要人类大脑。


3. 学术出版体系的系统性冲击

3.1 同行评审的信任危机

AI Scientist 登上 Nature 引发的最直接的制度性问题是:同行评审还可靠吗?

Nature 的编辑团队在一份声明中确认,这篇论文经过了标准的同行评审流程,审稿人知道论文的主要作者是一个 AI 系统。(来源: Nature Editorial, 2026-04-01) 但这引发了一个悖论:如果审稿人不知道呢?

2024年,斯坦福大学的一项研究估计,在顶级 AI 会议(如 NeurIPS、ICML、ICLR)的投稿中,已有约17%使用了大语言模型进行实质性内容生成(不仅仅是语法润色)。(来源: Stanford HAI, 2024-07-15) 到2025年,这个比例被估计已上升到30%以上。AI Scientist 的 Nature 论文只是冰山一角——它是透明的、公开的,但有多少 AI 生成或 AI 深度辅助的论文正在以人类作者的名义通过同行评审?

这个问题的严重性在于,同行评审体系的根基是信任:审稿人信任作者诚实地报告了实验过程和结果。如果论文的生成过程本身是一个黑箱(即使是对作者自己而言——他们可能使用了 AI 辅助但不完全理解 AI 的推理过程),这个信任基础就被侵蚀了。

Elsevier 的首席技术官 Dan Olley 在2025年底的一次行业会议上透露,该公司已经部署了 AI 检测系统来筛查投稿,但承认”误报率仍然高得令人不安——大约12%的纯人类撰写论文被错误标记为 AI 生成”。(来源: The Scholarly Kitchen, 2025-12-08) 这意味着检测 AI 生成内容本身就是一个尚未解决的技术问题。

3.2 “论文洪水”的量化预测

让我们做一个简单的数学推演。

2024年,全球学术论文年发表量约为500万篇。(来源: Dimensions.ai, 2024年度报告) 如果 AI Scientist 级别的系统在2027年实现商业化(Sakana AI 已经暗示了这个时间线),假设初期只有5%的研究机构采用,每个机构平均每年额外产出100篇 AI 生成论文,那么仅此一项就会增加约50万篇论文——相当于全球年发表量增长10%。

但这是极其保守的估计。AI Scientist v2 生成一篇论文的边际成本(按 Sakana AI 的说法)已经降到了约200美元(相比 v1 的15美元大幅上升,因为 v2 的迭代实验循环和大规模文献检索消耗了更多计算资源,但仍然比人类科研的成本低几个数量级)。一个拥有适度计算预算的实验室每年可以轻松产出数千篇论文。

这将对现有的学术出版体系构成什么样的压力?Nature 每年接收约10000篇投稿,接受率约8%。如果投稿量因 AI 而翻倍,而编辑和审稿人数量没有相应增长(他们不会——审稿是无偿志愿工作),那么要么接受率降至4%以下,要么审稿质量大幅下降,要么两者同时发生。

更深层的问题是:当论文的供给端被 AI 极大地放大后,学术出版的”声誉市场”将如何重新定价?在传统模式下,一篇 Nature 论文之所以有价值,部分原因是它代表了作者数月甚至数年的智力投入。如果 AI 可以在几天内产出同等质量的论文,那么”发表在 Nature 上”这个信号的信息量就会被稀释。

3.3 署名权与知识产权的灰色地带

AI Scientist 的 Nature 论文在作者署名上采用了一个折中方案:Sakana AI 的人类研究团队作为通讯作者,AI Scientist 系统被列为”贡献者”(contributor)而非”作者”(author)。这遵循了2023年 Nature 和 Science 同时发布的编辑政策——AI 工具不能被列为论文作者,因为作者身份意味着对论文内容承担责任,而 AI 系统无法承担法律和伦理责任。(来源: Nature Editorial Policy, 2023-01-24)

但这个框架在 AI Scientist v2 的语境下已经显得捉襟见肘。如果 AI 系统独立完成了假设生成、实验设计、实验执行、数据分析和论文撰写的全部流程,人类研究者的角色仅限于”启动系统”和”审核最终输出”,那么将人类列为”作者”是否构成学术不端?

这不是一个假想的问题。美国国家科学基金会(NSF)在2025年12月发布的一份政策备忘录中明确指出:”如果研究的实质性智力贡献主要由 AI 系统完成,仅将人类监督者列为作者可能违反学术诚信原则。”(来源: NSF Policy Memo, 2025-12-15) 但该备忘录没有给出替代方案——因为目前不存在一个能够处理”非人类智力贡献者”的法律和制度框架。

知识产权方面的问题同样棘手。美国专利商标局(USPTO)在2024年的 Thaler v. Vidal 案中裁定,AI 系统不能被列为专利发明人。(来源: USPTO, 2024-04-24) 如果 AI Scientist 发现了一种具有商业价值的新药物分子,专利归谁?归 Sakana AI(系统的开发者)?归使用该系统的制药公司?还是归训练数据中包含的数百万篇论文的原始作者?


4. 人类科学家的角色演变:3种情景

4.1 情景1:增强(Augmentation)——最可能的近期路径

在这个情景中,AI Scientist 类系统成为科学家的”超级助手”,类似于计算器之于数学家、CAD 之于工程师。人类科学家继续定义研究方向、提出核心问题、解读结果的意义,但将文献综述、实验设计优化、数据分析和论文初稿撰写等任务委托给 AI。

这个情景已经在部分实现。2025年,Insilico Medicine 使用 AI 系统设计的抗纤维化药物 INS018_055 进入了2期临床试验,从靶点发现到候选药物确定仅用了18个月,而传统药物发现流程通常需要4-5年。(来源: Insilico Medicine, 2025-06-10) 但在这个案例中,AI 是工具,人类科学家仍然是决策者。

Goldman Sachs 在2026年4月的一份报告中预测,到2030年,60%的软件行业利润将来自 AI Agent。(来源: Uproger, 2026-04-02) 如果我们将这个预测外推到科研领域,”增强”情景意味着科学家的生产力将大幅提升,但科学家的角色不会消失——它会向”研究方向设定者”和”结果解读者”转变。

4.2 情景2:分层(Stratification)——最可能的中期路径

这个情景更具颠覆性,也更令人不安。

如果 AI Scientist 级别的系统在2027-2030年间实现广泛商业化,科学研究将出现明显的分层:

  • 第1层(AI 可完全胜任):常规科学——在已有范式内的增量改进、参数优化、方法论比较。这类工作目前占所有科学论文的70%以上。
  • 第2层(AI 辅助,人类主导):跨领域综合——将不同领域的知识和方法论结合起来解决新问题。AI 可以做文献检索和初步综合,但跨领域的”直觉跳跃”仍然需要人类。
  • 第3层(纯人类领域):范式革命——提出全新的概念框架、质疑基本假设、重新定义问题本身。

这种分层的后果是:大量从事第1层工作的科学家(尤其是博士后和初级研究员)将面临严重的职业威胁。根据美国国家科学基金会的数据,2024年美国约有6.2万名博士后研究员,其中约40%从事的工作可以被归类为”常规科学”。(来源: NSF Survey of Graduate Students and Postdoctorates in Science and Engineering, 2024)

这不意味着这些人会立即失业,但他们的议价能力和职业前景将显著恶化。学术界的金字塔结构——少数终身教授在顶端,大量博士后和研究助理在底部——将变得更加陡峭。

4.3 情景3:替代(Replacement)——低概率但非零

在这个情景中,AI 系统在10-20年内发展出真正的”科学直觉”——能够提出范式革命级别的原创问题。这将从根本上改变科学的性质:科学不再是人类认识世界的方式,而是一种可以被自动化的工业流程。

我认为这个情景在2040年前实现的概率低于10%,原因有3个:

第1,范式革命需要的不仅是智力,还需要”不满”——对现有解释的深层不满足感。Darwin 之所以提出进化论,部分原因是他对当时的物种分类学感到”不对劲”。这种”不对劲”的感觉目前没有任何 AI 系统能够模拟。

第2,科学发现往往依赖于意外——Louis Pasteur 的名言”机会偏爱有准备的头脑”。AI 系统是目标导向的,它们不会在实验中”偶然注意到”一个异常现象并追踪下去。虽然可以通过编程引入”好奇心”机制(如 OpenAI 在2024年发表的关于 intrinsic motivation 的研究),但目前的实现远未达到人类级别的灵活性。

第3,科学是一种社会活动。论文发表、同行评审、学术会议、师生传承——这些社会结构不仅是科学的”包装”,更是科学知识生产的核心机制。AI 系统目前无法参与这些社会过程(尽管它可以模拟其中的某些环节)。


5. 诺贝尔奖的”Demis Hassabis 问题”

2024年10月,DeepMind 的 CEO Demis Hassabis 因 AlphaFold 获得诺贝尔化学奖。(来源: Nobel Prize, 2024-10-09) 这个决定本身就引发了争议——Hassabis 是一位计算机科学家,而非化学家,他获奖的原因是开发了一个解决化学问题的 AI 工具。

AI Scientist 的 Nature 论文将这个争议推向了新的高度。如果 AI Scientist 在未来产出了一个诺贝尔奖级别的发现——比如预测了一种新的超导材料并被实验验证——奖项应该颁给谁?

按照诺贝尔奖的现有规则,奖项只能颁给自然人(个人),且每个奖项最多3人。(来源: Nobel Foundation Statutes, 2024) 如果发现完全由 AI 系统完成,可能的候选人包括:AI 系统的开发者(Sakana AI 的团队)、使用该系统的科学家、甚至是提供关键训练数据的研究者。但这些人中,没有一个真正”做出了”这个发现。

这不是一个纯粹的思想实验。诺贝尔委员会已经在2025年成立了一个内部工作组来研究”AI 辅助发现”的评奖标准。(来源: Nature News, 2025-11-20) 据知情人士透露,工作组内部存在尖锐分歧:一派认为应该修改规则允许 AI 系统作为”荣誉接收者”,另一派认为这将从根本上瓦解诺贝尔奖的意义——它奖励的是人类的智力成就,而非工具的性能。

我的判断是:在未来10年内,诺贝尔奖将不得不做出一个二选一的决定——要么修改规则以适应 AI 时代,要么接受自己日益变成一个”人类遗产奖”(类似于手工艺品在工业化时代的地位)。两条路都有代价,但后者的代价更大,因为它将使诺贝尔奖与科学前沿脱节。


6. 大多数人没看到的:数据飞轮与科研垄断

6.1 科研领域的”赢家通吃”效应

这是我认为 AI Scientist 登上 Nature 最被低估的影响:它将加速科研领域的”赢家通吃”效应。

原因很简单:AI Scientist 类系统的性能高度依赖于训练数据的质量和规模。拥有最大、最高质量科研数据集的机构将训练出最好的 AI 科学家,产出最多的高质量论文,进而产生更多的数据来进一步改进系统。这是一个经典的数据飞轮。

目前,全球科研数据最集中的机构包括:Google DeepMind(通过 Google Scholar 和 PubMed 的数据访问)、Meta(通过 Semantic Scholar 的投资)、以及中国的百度和阿里巴巴(通过中国知网和万方数据库)。值得注意的是,Sakana AI 本身并不拥有大规模的科研数据集——它依赖于公开的学术数据库和合作伙伴的数据访问权限。

这意味着,AI 科研的未来可能被少数几家大型科技公司所主导。学术界长期以来引以为豪的”开放科学”精神——任何人都可以提出假设、做实验、发表论文——可能在 AI 时代被严重侵蚀。当做科学的门槛从”拥有一个实验室和几个博士生”变成”拥有数十亿参数的模型和数百万篇论文的训练数据”,大多数大学和研究机构将被排除在竞争之外。

6.2 地缘政治维度

AI 科研能力的集中还有一个地缘政治维度。如果美国的科技公司垄断了最先进的 AI 科学家系统,这将对全球科研格局产生什么影响?

中国在这方面的布局值得关注。2025年,中国科学院发布了”智能科研2030”计划,目标是在2030年前开发出能够独立完成”从假设到论文”全流程的 AI 科研系统。(来源: 中国科学院, 2025-03-15) 华为的昇腾 AI 计算集群和百度的文心大模型被列为该计划的核心基础设施。

欧盟的反应则更加谨慎。2025年底,欧盟委员会发布了《AI 与科学诚信框架》草案,要求所有在欧盟资助的研究中使用 AI 生成内容的论文必须进行完整披露,并建议对”AI 生成论文”和”人类撰写论文”进行分类管理。(来源: European Commission, 2025-11-30) 批评者认为这种分类管理将使欧洲在 AI 科研竞赛中进一步落后。

6.3 开源 vs. 闭源:科研的未来之争

一个关键的不确定性在于:AI 科学家系统最终会走向开源还是闭源?

Sakana AI 目前的策略是半开放的——AI Scientist v1 的代码已经在 GitHub 上开源,但 v2 的核心改进(特别是多 Agent 协作架构和科学批评家 Agent 的实现细节)尚未公开。这与 Meta 在 Llama 系列上的策略类似:开源基础版本以建立生态,保留最先进版本的商业化权利。

如果 AI 科学家系统最终走向闭源,科学研究将面临一个前所未有的困境:科学的核心方法论本身变成了一个商业黑箱。这与科学的基本精神——可重复性、透明性、开放性——存在根本冲突。

另一方面,如果完全开源,那么任何人都可以大规模生成论文,这将使前面讨论的”论文洪水”问题急剧恶化。这是一个真正的两难困境,目前没有好的解决方案。


7. So What:对不同读者的意义

对科学家

如果你是一名博士生或博士后,现在就应该开始思考你的工作中哪些部分可以被 AI 替代,哪些不能。专注于培养 AI 无法替代的能力:跨领域直觉、与实验合作者的沟通、对研究方向的战略判断。不要把时间花在 AI 可以在几分钟内完成的文献综述和数据分析上。

同时,学会使用 AI 科研工具。在未来5年内,”不使用 AI 做科研”将类似于”不使用计算机做科研”——不是不可能,但你会被远远甩在后面。

对学术出版机构

Nature、Science、Cell 等顶级期刊需要在2026-2027年内建立一套完整的”AI 生成内容”处理框架。这包括:强制性的 AI 使用披露、针对 AI 生成论文的专门评审流程、以及可能的”AI 论文”专区。不采取行动的后果是信任体系的崩溃。

对科技公司和投资者

AI 科研自动化是一个巨大的市场机会。Goldman Sachs 预测到2030年60%的软件利润来自 AI Agent (来源: Uproger, 2026-04-02),而科研自动化可能是 Agent 经济中价值最高的垂直领域之一。药物发现、材料科学、气候建模——这些领域的 AI 科研系统每年的潜在市场规模可达数百亿美元。

但风险同样巨大。如果 AI 生成的科研论文出现系统性错误(类似于2023年 Galactica 的问题,但规模大得多),造成的声誉和法律风险可能是灾难性的。投资者应该关注那些在”可验证性”和”可解释性”方面有强大技术壁垒的公司——Scale Labs 的 Agentic Rubrics 方法论(使用专家 Agent 进行上下文感知的验证)可能是一个重要的方向。(来源: Scale Labs, 2026-04-02)

对政策制定者

这是一个需要紧急行动的领域。AI 生成的科研论文正在快速增长,但监管框架几乎不存在。美国的 NSF、中国的国家自然科学基金委、欧盟的 ERC 都需要在2026-2027年内出台明确的政策:AI 生成的研究是否有资格获得公共资助?AI 是否可以被列为共同PI(首席研究员)?AI 生成论文的知识产权归属如何确定?

拖延的代价是巨大的。如果政策真空持续到2028年,我们可能会面临一个充斥着 AI 生成论文、但缺乏质量控制和责任归属机制的学术生态系统——这将是对科学公信力的致命打击。


结语:末日钟,还是黎明钟?

AI Scientist 登上 Nature 不是学术”末日钟”又近了1格。它更像是一面镜子,迫使我们重新审视一个被长期回避的问题:科学的价值究竟在于过程还是结果?

如果科学的价值在于结果——新知识、新技术、新药物——那么 AI 科学家是一个毫无疑问的福音。它将以前所未有的速度和规模扩展人类的知识边界。

如果科学的价值(至少部分地)在于过程——人类通过理性探索来理解世界的努力本身——那么 AI 科学家确实构成了一种存在性的挑战。当机器可以更快、更好、更便宜地做科学时,人类做科学的意义是什么?

我的回答是:两者都是。科学既是一种知识生产活动,也是一种人类文明的核心实践。AI 将彻底改变前者,但不会——至少在我们可以预见的未来——取代后者。真正的危险不是 AI 做科学,而是我们在这个过程中忘记了为什么科学对人类来说是重要的。

2026年4月的这篇 Nature 论文,将被未来的科学史家视为一个分水岭。但它标志的不是科学的终结,而是科学的一次深刻的自我重新定义的开始。


参考资料

  1. AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery — Sakana AI, 2024-08-13
  2. 俄语 ML 新闻综述:AI Scientist 登 Nature + Goldman Sachs 预测 — Uproger, 2026-04-02
  3. Agentic Rubrics: SWE Agent 上下文验证器 — Scale Labs, 2026-04-02
  4. Nobel Prize in Chemistry 2024 — Nobel Foundation, 2024-10-09
  5. Tools such as ChatGPT threaten transparent science — Nature Editorial, 2023-01-24
  6. Mapping the Increasing Use of LLMs in Scientific Papers — Stanford HAI / ArXiv, 2024-04-01

主题分类:ai-dlc