FERMIACC:当 AI 开始为粒子物理学家写假设,基础科学的"AlphaFold 时刻"是否已经到来?
2025年,DeepMind 的 AlphaFold 获得诺贝尔化学奖,标志着 AI 在结构生物学领域从工具升级为核心方法论。2026年3月,加州大学圣巴巴拉分校(UCSB)的一个团队悄然发布了一个名为 FERMIACC 的系统——它不是在预测蛋白质结构,而是在做一件更具野心的事:自动生成粒子物理学的新假设,并用仿真工具验证其自洽性。这不是让 AI 做文献综述,也不是让大语言模型(LLM)回答物理习题。FERMIACC 试图让 AI 参与科学发现过程中最核心、最依赖人类直觉的环节——提出”也许世界是这样运作的”这一猜想本身。
这个消息没有登上主流科技媒体的头条。同一天,OpenAI 以8520亿美元估值完成了1220亿美元融资(来源: 综合报道, 2026-04-02),Oracle 正在裁减数千人为 AI 数据中心腾挪预算,Sycamore 拿到了6500万美元种子轮来做企业 Agent 编排层。资本市场的注意力全部集中在”AI 如何赚钱”上。但 FERMIACC 所代表的方向——AI 作为基础科学的假设生成引擎——可能是未来10年内对人类知识边界影响最深远的技术路径之一。
1. FERMIACC 到底做了什么:不是搜索引擎,是”理论物理学家的第一性原理推理器”
要理解 FERMIACC 的意义,首先需要理解粒子物理学当前的困境。
粒子物理学的标准模型(Standard Model)自1970年代建立以来,已经精确预测了几乎所有高能物理实验的结果。2012年 CERN 的大型强子对撞机(LHC)发现 Higgs 玻色子,是标准模型最后一块拼图的验证。但标准模型有明确的局限性:它无法解释暗物质(占宇宙物质总量约27%),无法解释中微子质量的来源,无法统一引力与量子力学,也无法解释宇宙中物质与反物质的不对称性。
过去40年,理论物理学家提出了数百种”超越标准模型”(BSM, Beyond the Standard Model)的理论——超对称(SUSY)、额外维度、复合 Higgs 模型、各种暗物质候选粒子模型等。但 LHC 运行超过10年,尚未发现任何 BSM 新物理的确凿证据。这导致了一个被物理学界广泛讨论的”理论过剩、实验不足”困境:人类能想到的理论太多,而能做的实验太少、太贵、太慢。
FERMIACC 的设计目标,正是试图改变这个等式中”人类能想到的理论”这一端的效率。
根据 UCSB 团队的公开信息(来源: 综合报道, 2026-04-02),FERMIACC 系统的架构包含3个核心组件:
第1层:基于 OpenAI 大语言模型的假设生成模块。 该模块不是简单地从现有文献中检索已知理论,而是被设计为在给定物理约束条件下(如已知的实验数据、对称性要求、重整化群方程的一致性等),提出新的理论框架或对现有框架的非平凡扩展。关键在于,它被要求生成的不是自然语言描述,而是具有数学结构的假设——例如,一个新的拉格朗日量(Lagrangian)中应该包含哪些场、哪些耦合项、哪些对称性破缺模式。
第2层:物理仿真与一致性检验工具链。 生成的假设会被自动输入到粒子物理学的标准计算工具中进行验证。这些工具可能包括 MadGraph(用于计算散射截面)、PYTHIA(用于模拟粒子簇射和强子化)、Geant4(用于模拟探测器响应)等。这一层的作用是快速过滤掉数学上不自洽或与已知实验数据明显矛盾的假设。
第3层:反馈循环与假设精炼。 仿真结果会被反馈给 LLM,后者根据失败模式调整假设,形成迭代优化循环。这类似于 AlphaGo 中的自我对弈机制,但对手不是另一个 AI,而是物理定律本身。
这套架构的核心创新不在于任何单一组件,而在于将 LLM 的模式识别能力与物理仿真工具的精确计算能力闭环连接。理论物理学家的日常工作本质上也是这样一个循环——提出猜想、做计算、发现矛盾、修改猜想——但人类的循环速度受限于计算能力和认知带宽。FERMIACC 试图将这个循环的速度提高数个数量级。
2. 为什么是现在:3个技术趋势的交汇点
FERMIACC 的出现不是偶然的,它站在3个技术趋势的交汇点上。
趋势1:LLM 的推理能力跨过了”数学形式化”门槛。 2023年的 GPT-4 已经能解决本科水平的物理问题。2024年的 o1 模型展示了多步推理能力。2025-2026年,OpenAI 的模型(具体版本未公开,但 FERMIACC 使用的是 OpenAI API)在数学推理基准测试上的表现持续提升。关键转折点在于:当 LLM 能够可靠地操作拉格朗日量、费曼图规则、群论表示等形式化对象时,它就具备了参与理论物理假设生成的基本能力。这不需要模型”理解”物理——它只需要能够在形式系统内进行有效的符号操作和模式匹配。
趋势2:物理仿真工具的 API 化和自动化。 MadGraph、PYTHIA 等工具在过去5年经历了显著的工程化改进,支持批量化、脚本化运行。这意味着 AI 系统可以通过编程接口自动提交计算任务并获取结果,而不需要人类物理学家手动操作。这一点往往被忽视,但它是 FERMIACC 能够实现闭环的关键基础设施条件。
趋势3:Agent 范式的成熟。 FERMIACC 本质上是一个 Agent 系统——它有目标(生成与已知数据一致的新物理假设)、有工具(仿真软件)、有反馈循环(仿真结果驱动假设修改)。这与2026年企业 AI 领域的 Agent 热潮(如 Sycamore 获6500万美元种子轮构建企业 Agent 编排层,来源: TechCrunch , 2026-04-02)在技术架构上高度同构。区别在于:企业 Agent 的工具是 CRM、数据库、API;FERMIACC 的工具是粒子物理仿真器。Agent 范式的通用性在此得到了一个极端案例的验证。
3. 两个对立视角:革命性突破 vs. 精致的随机搜索
对 FERMIACC 的评价,物理学界和 AI 学界存在尖锐的分歧。
视角1:这是基础科学的”AlphaFold 时刻”
支持者认为,FERMIACC 代表了 AI 在科学发现中角色的质变——从”加速已知方法”到”参与假设生成”。AlphaFold 解决的是一个明确定义的问题(给定氨基酸序列,预测3D结构),而 FERMIACC 面对的是一个开放性问题(给定已知物理,什么新物理可能存在?)。如果 FERMIACC 能够生成人类物理学家未曾想到的、且与实验数据一致的新理论框架,那么 AI 就真正成为了科学发现的参与者,而不仅仅是计算工具。
这一视角的经验支撑来自 AI 在其他科学领域的成功。DeepMind 的 GNoME 系统在2023年预测了220万种新晶体结构,其中超过38万种被认为是热力学稳定的(来源: Nature, 2023-11-29)。Google 的 FunSearch 在2024年用 LLM 发现了组合数学中的新构造(来源: Nature, 2024-01-17)。这些案例表明,LLM 的模式识别能力在与形式化验证工具结合时,确实能够产生超越人类已知的结果。
FERMIACC 的支持者还指出一个更深层的论点:粒子物理学的”理论荒漠”可能部分源于人类认知偏见。物理学家倾向于探索”美”的理论——对称性高、参数少、数学结构优雅。但自然界不一定遵循人类的审美偏好。AI 没有这种偏见,它可能会探索人类物理学家因”不够优雅”而忽略的理论空间角落。
视角2:这只是一个花哨的随机搜索器
批评者的核心论点是:LLM 不理解物理,它只是在做高维空间中的统计插值。 当 LLM “生成”一个新的拉格朗日量时,它并不是基于对物理原理的深层理解,而是基于训练数据中已有理论的统计模式。这意味着 FERMIACC 生成的”新”假设,本质上是已知理论的组合和变体,而不是真正的概念创新。
这一批评并非没有道理。粒子物理学历史上最重要的突破——狄拉克方程、杨-米尔斯理论、Higgs 机制、渐近自由——都涉及深层的概念飞跃,而不仅仅是对已有框架的参数调整。LLM 能否产生这种级别的概念创新,目前没有任何证据支持。
更尖锐的批评来自计算复杂性的角度。BSM 理论的空间是无限维的——你可以添加任意数量的新粒子、新相互作用、新对称性。在这个空间中做搜索,即使有仿真工具做过滤,也面临组合爆炸问题。如果 FERMIACC 的搜索策略本质上是”生成大量候选理论,用仿真过滤掉不一致的”,那么它的效率可能并不比蒙特卡洛方法高多少——只是包装得更好看而已。
我的判断:短期被高估,长期被低估
我认为 FERMIACC 当前版本的实际科学产出可能有限——它大概率不会在短期内产生诺贝尔奖级别的新理论。但它代表的方法论范式具有深远意义。
原因如下:FERMIACC 的真正价值不在于它生成的任何单个假设,而在于它改变了理论物理学家的工作流程。历史上,理论物理学家花费大量时间在”排除错误假设”上——提出一个想法,花几周做计算,发现与实验矛盾,放弃,重新开始。FERMIACC 可以将这个排除过程的速度提高100倍甚至1000倍。即使 AI 生成的假设中99.9%是垃圾,剩下的0.1%——那些通过了所有一致性检验、与已知数据兼容、且人类物理学家未曾考虑过的——也可能具有巨大价值。
这类似于制药行业中 AI 辅助药物发现的逻辑:AI 不需要”理解”生物学,它只需要高效地缩小候选分子的搜索空间。Insilico Medicine 的 AI 发现的 ISM001-055 已经进入临床2期试验(来源: Insilico Medicine 官方公告, 2024),证明了这种”AI 生成 + 实验验证”范式的可行性。FERMIACC 试图在粒子物理学中复制这一范式。
4. 大多数人没看到的3层深度洞察
洞察1:FERMIACC 暴露了 OpenAI 的一个隐藏战略维度——科学 API 的”基础设施税”
FERMIACC 使用 OpenAI 的模型 API。这意味着 UCSB 的每一次假设生成循环都在向 OpenAI 支付推理费用。如果 FERMIACC 模式被广泛复制到其他科学领域——化学、材料科学、气候模型、基因组学——OpenAI 将成为基础科学研究的”计算税”收取者。
这与 OpenAI 当前的商业化困境形成有趣的对比。OpenAI 每月烧钱约7.5亿美元(年化约90亿美元,来源: 综合报道, 2026-04-02),正在 ChatGPT 中测试广告(来源: 综合报道, 2026-04-02),关闭了每天烧钱1000-1500万美元的 Sora(来源: 综合报道, 2026-04-02)。消费者市场的变现压力巨大。但科学研究 API 是一个完全不同的市场——客户是政府资助的研究机构和大学,付费意愿稳定(因为来自研究经费),且一旦研究工作流建立在特定 API 上,切换成本极高。
全球基础科学研究的年度支出约为3000亿美元(来源: OECD Science, Technology and Innovation Outlook, 2023)。如果其中哪怕1%转化为 AI 推理 API 费用,那就是每年30亿美元的市场。对于估值8520亿美元、月收入20亿美元的 OpenAI 来说(来源: 综合报道, 2026-04-02),这不是一个可以忽略的增量。
更重要的是,科学领域的 AI 应用具有极强的品牌效应和护城河效应。如果 FERMIACC 用 OpenAI 模型产生了重要的物理发现,这将成为 OpenAI 最强大的营销案例——远比任何广告收入更有价值。这解释了为什么 OpenAI 可能愿意为学术研究提供优惠 API 定价:短期亏损,长期锁定。
洞察2:FERMIACC 的真正竞争对手不是其他 AI 系统,而是下一代粒子加速器
粒子物理学界目前面临一个重大决策:是否建造下一代对撞机。CERN 提议的未来环形对撞机(FCC)预计造价约210亿欧元(来源: CERN FCC Feasibility Study, 2025),建设周期超过20年。中国的环形正负电子对撞机(CEPC)预计造价约360亿人民币(约50亿美元),也在推进中。
这些项目的核心论证是:我们需要更高能量的对撞机来发现新物理。但 FERMIACC 提出了一个隐含的替代方案:如果 AI 能够更高效地探索理论空间,也许我们可以从已有的实验数据中提取更多信息,而不需要建造更贵的机器。
这不是说 AI 可以替代实验——实验是物理学的最终裁判。但 AI 可能改变实验的优先级排序。如果 FERMIACC 能够生成一批与已知数据一致但预测不同实验信号的新理论,那么实验物理学家就可以更有针对性地设计实验来区分这些理论,而不是盲目地提高对撞能量。这可能意味着,LHC 的现有数据中还有大量未被挖掘的信息——因为物理学家此前只知道用已有理论去分析数据。
如果这一逻辑成立,FERMIACC 类系统可能会影响到价值数百亿美元的大科学设施投资决策。这是一个绝大多数 AI 行业分析师完全没有意识到的影响维度。
洞察3:Agent 架构在科学领域的可迁移性远超企业领域
Sycamore 获得6500万美元种子轮来构建企业 Agent 编排层(来源: TechCrunch , 2026-04-02),其天使投资人包括 Bob McGrew(前 OpenAI)、Lip-Bu Tan(Intel CEO)、Ali Ghodsi(Databricks CEO)。企业 Agent 的核心挑战是:每个企业的工作流不同,工具集不同,数据格式不同,需要大量定制化工作。
但科学领域的 Agent 有一个巨大优势:科学工具是标准化的。 MadGraph 在全球所有粒子物理实验室的用法是一样的。VASP(计算材料科学的标准工具)在MIT和清华的用法是一样的。Gaussian(量子化学计算软件)的输入输出格式全球统一。这意味着,一旦你为某个科学领域构建了一个”LLM + 仿真工具”的 Agent 闭环,它可以几乎零成本地在全球所有相关实验室中部署。
这种可迁移性在企业 Agent 领域是不存在的。Salesforce 的 CRM 和 SAP 的 ERP 之间的集成是一场噩梦,每个企业的数据管道都是独特的。但 FERMIACC 的架构——”LLM 生成假设 → 标准工具验证 → 结果反馈 LLM”——可以被直接移植到:
- 计算化学:LLM 生成分子结构假设 → Gaussian/ORCA 计算性质 → 反馈优化
- 材料科学:LLM 生成晶体结构假设 → VASP/Quantum ESPRESSO 计算稳定性 → 反馈优化
- 天体物理:LLM 生成宇宙学模型假设 → CLASS/CAMB 计算 CMB 功率谱 → 与 Planck 数据对比
- 气候科学:LLM 生成参数化方案假设 → 气候模型运行 → 与观测数据对比
FERMIACC 可能不仅仅是一个粒子物理工具,而是一个科学 Agent 架构的原型。谁先意识到这一点并构建通用的”科学 Agent 编排层”,谁就可能占据一个被严重低估的市场位置。
5. 技术-商业交叉分析:谁在这条价值链上?
FERMIACC 的出现勾勒出一条新的价值链,值得逐层分析。
底层:计算基础设施。 FERMIACC 的每一次假设生成-仿真-反馈循环都需要大量计算。LLM 推理需要 GPU(主要是 NVIDIA 的 H100/B200),物理仿真需要 CPU 和 GPU 的混合计算。NVIDIA 在 AI 芯片市场的主导地位(2025年市场规模约455亿美元,GPU 占35.2%份额,来源: thenicheresearch.com, 2026-04-02)意味着它是这条价值链的最大受益者之一。但这里有一个微妙的区别:科学仿真对计算的需求模式与 LLM 训练/推理不同——它更依赖双精度浮点运算(FP64),而 NVIDIA 的 AI 芯片优化方向是低精度(FP8/FP16)。这可能为 AMD 的 Instinct 系列或 Intel 的 Gaudi 系列创造差异化机会。
此外,USC 团队近期发布的耐高温芯片研究(可在700°C以上环境存活并执行矩阵乘法运算,来源: 综合报道, 2026-04-02)虽然与 FERMIACC 没有直接关系,但指向了一个更广泛的趋势:AI 计算硬件的多样化。未来的科学 AI 系统可能需要在极端环境中运行——例如在粒子加速器的探测器内部进行实时 AI 推理,这对芯片的耐辐射性和耐温性提出了特殊要求。
中间层:模型提供商。 OpenAI 是当前的直接受益者,因为 FERMIACC 使用其 API。但这个位置并不稳固。Anthropic 的 Claude、Google 的 Gemini、Meta 的 Llama 系列都在推理能力上快速追赶。更关键的是,科学界对开源模型有天然的偏好——可重复性是科学的基石,而依赖闭源 API 的研究结果在可重复性上存在固有缺陷(模型版本更新可能导致结果不可复现)。这意味着 Meta 的 Llama 或 Mistral 等开源模型可能在科学 Agent 领域获得超出其在消费者市场份额的采用率。
应用层:科学 Agent 平台。 目前没有任何公司专门构建”科学 Agent 编排层”。Sycamore 做的是企业 Agent 编排,但科学领域的需求完全不同。这里存在一个明确的市场空白。最有可能填补这一空白的玩家包括:
- Weights & Biases / Neptune.ai:已有科学计算领域的用户基础,可以扩展到 Agent 编排
- Google DeepMind:已有 AlphaFold、GNoME 等科学 AI 的成功案例,有内部构建通用科学 Agent 平台的动机
- 创业公司:一个专注于”科学 Agent 编排”的创业公司,如果能获得类似 Sycamore 级别的融资(6500万美元),可能具有显著的先发优势
最终用户层:研究机构和国家实验室。 CERN、Fermilab、SLAC、中国科学院高能物理研究所等机构是最终用户。它们的采购决策通常由研究人员自下而上驱动,而非 IT 部门自上而下推动。这意味着”科学 Agent”的市场推广策略应该更像 GitHub(开发者社区驱动)而非 Salesforce(企业销售驱动)。
6. 与 OpenAI 战略的深层关联:从军事到科学,API 帝国的两翼
FERMIACC 的出现需要放在 OpenAI 更广泛的战略布局中理解。
2026年4月,OpenAI 同时在多个方向推进:任命前美军网络战高级将领进入董事会(来源: 综合报道, 2026-04-02),修改与五角大楼的军事合作协议(来源: 综合报道, 2026-04-02),同时其模型被用于 FERMIACC 这样的基础科学项目。这不是矛盾的——这是同一个战略的两翼:让 OpenAI 的 API 成为从国防到科学的所有高价值计算任务的默认基础设施。
军事应用提供稳定的政府合同收入和政治保护伞。科学应用提供品牌声誉和人才吸引力。两者共同构建了一个”太重要而不能失败”(too important to fail)的叙事,这对于一家估值8520亿美元、预计2030年才能盈利的公司来说(来源: 综合报道, 2026-04-02),是至关重要的护城河。
但这里存在一个紧张关系。OpenAI 的军事合作已经引发了伦理争议(来源: 综合报道, 2026-04-02),Sam Altman 承认合作宣布过于仓促。同时,企鹅兰登书屋正在起诉 OpenAI 的版权问题(来源: 综合报道, 2026-04-02)。科学界对 OpenAI 的态度是复杂的:一方面,研究人员需要最强大的模型来推进研究;另一方面,科学界对闭源、商业化、与军方合作的 AI 公司天然存在不信任。
如果 OpenAI 在 FERMIACC 这类项目上的定价过于激进,或者在模型更新时破坏了研究的可重复性,科学界可能会迅速转向开源替代方案。这是 OpenAI 在科学 API 市场面临的最大风险。
7. 对标分析:FERMIACC vs. 其他 AI 科学发现系统
为了准确评估 FERMIACC 的定位,有必要将其与已有的 AI 科学发现系统进行对比。
| 系统 | 领域 | 方法 | AI 角色 | 成果级别 |
|---|---|---|---|---|
| AlphaFold (DeepMind) | 结构生物学 | 深度学习预测蛋白质结构 | 解决已定义问题 | 诺贝尔奖 (2025) |
| GNoME (DeepMind) | 材料科学 | 图神经网络预测晶体稳定性 | 加速筛选 | 220万新晶体结构 |
| FunSearch (DeepMind) | 数学 | LLM + 进化搜索 | 发现新构造 | Nature 论文 (2024) |
| FERMIACC (UCSB) | 粒子物理 | LLM + 物理仿真闭环 | 假设生成 | 待验证 |
关键区别在于:AlphaFold 和 GNoME 解决的是”给定输入,预测输出”的问题——问题本身是明确定义的。FunSearch 更进一步,在开放性数学问题上找到了新解。FERMIACC 试图做的事情比 FunSearch 更难——因为粒子物理假设的验证不仅需要数学一致性,还需要与实验数据的兼容性,而实验数据本身存在误差和系统性不确定性。
但 FERMIACC 有一个 FunSearch 不具备的优势:物理学有极其强大的一致性约束。 量子场论的重整化条件、规范不变性、洛伦兹对称性等,为假设空间提供了强有力的剪枝规则。这意味着 FERMIACC 的搜索空间虽然巨大,但有效搜索空间可能比看起来小得多。如果 LLM 能够学会利用这些约束来引导搜索(而不是盲目生成再过滤),其效率可能远超蒙特卡洛方法。
8. 风险与局限性:不应被忽视的4个问题
问题1:幻觉风险在科学领域的后果更严重。 LLM 的幻觉(hallucination)在日常对话中是烦人的,在科学假设生成中可能是危险的。如果 FERMIACC 生成了一个看似自洽但实际上基于 LLM 幻觉的”新理论”,而物理学家因为信任系统而投入大量时间和资源去验证它,这将造成巨大的资源浪费。仿真工具可以检查数学一致性,但无法检查”这个理论是否有物理意义”——这仍然需要人类判断。
问题2:训练数据偏见可能限制创新。 LLM 的训练数据主要来自已发表的物理文献。这意味着它的”假设空间”受限于人类物理学家已经探索过的方向。真正革命性的新理论——例如弦理论在1960年代的出现——往往来自完全意想不到的方向。LLM 能否产生这种级别的”范式转换”,存在根本性的疑问。
问题3:可重复性和透明度。 如果 FERMIACC 使用的是 OpenAI 的闭源 API,那么其他研究团队无法完全复现其结果(因为模型版本可能更新,推理参数可能不同)。这与科学的可重复性原则存在根本冲突。学术界可能会要求 FERMIACC 团队迁移到开源模型,或者至少公开所有提示词(prompts)和超参数设置。
问题4:评估标准的缺失。 如何评判 FERMIACC 生成的假设是否”好”?数学一致性和与已知数据的兼容性是必要条件,但不是充分条件——满足这两个条件的理论可能有无数个。物理学家通常使用”简洁性”、”预测力”、”可检验性”等标准来评判理论的质量,但这些标准难以形式化,因此难以纳入自动化评估流程。
9. So What:对不同读者群体的启示
对 AI 行业从业者: FERMIACC 是 Agent 范式在高价值垂直领域的一个极端案例。如果你正在构建 Agent 系统,关注科学领域——它的工具标准化程度高、用户付费意愿稳定(政府经费)、且竞争远不如企业市场激烈。”科学 Agent 编排层”是一个被严重低估的创业机会。
对投资者: 不要只盯着企业 AI Agent(Sycamore 等)和消费者 AI(ChatGPT 广告)。科学 AI 是一个年度潜在市场规模30-100亿美元的赛道(全球基础研究支出的1-3%),且具有极高的壁垒(需要同时理解 AI 和特定科学领域)。最有可能的赢家是那些在特定科学领域拥有深厚专业知识、同时掌握 Agent 架构技术的团队。
对科学家: FERMIACC 不会取代理论物理学家,但它会改变理论物理学家的工作方式。未来的理论物理学家可能需要花更多时间在”评估 AI 生成的假设”上,而不是”从零开始构思假设”。这类似于围棋界在 AlphaGo 之后的变化——职业棋手现在大量使用 AI 来分析棋局,但下棋的仍然是人类。掌握 AI 工具的物理学家将比不掌握的同行拥有显著的生产力优势。
对政策制定者: FERMIACC 的出现应该被纳入大科学设施投资决策的考量中。如果 AI 能够更高效地探索理论空间并指导实验设计,那么下一代对撞机的投资论证需要更新——不是”我们需要更高能量来发现新物理”,而是”AI 告诉我们应该在哪个能量区间、寻找什么信号”。这可能使得大科学设施的投资更加精准,也可能改变不同方案之间的优先级排序。
结语
FERMIACC 目前还是一个早期系统,其科学产出尚待验证。但它所代表的范式——AI 作为基础科学的假设生成引擎——是2026年最值得关注的技术方向之一。在 OpenAI 估值8520亿美元、NVIDIA AI 芯片市场预计以15.3% CAGR 增长至2034年1287亿美元的大背景下(来源: thenicheresearch.com, 2026-04-02),FERMIACC 提醒我们:AI 最深远的影响可能不在于它如何改变商业,而在于它如何改变我们理解宇宙的方式。
当 OpenAI 在 ChatGPT 中测试广告、关闭 Sora、与五角大楼谈军事合同的时候,它的 API 正在被用来探索宇宙的基本规律。这个事实本身,就是对”AI 到底有什么用”这个问题最有力的回答。
参考资料
- AI Revolutionizes Particle Physics: UCSB’s FERMIACC System Explained — [来源已移除], 2026-04-02
- Scaling deep learning for materials discovery — Nature (GNoME), 2023-11-29
- Mathematical discoveries from program search with large language models — Nature (FunSearch), 2024-01-17
- Sycamore Revolutionizing Enterprise AI with a $65M Seed Round — TechCrunch, 2026-04-02
- NVIDIA AI 芯片市场报告 2026-2034 — thenicheresearch.com, 2026-04-02
- OpenAI 1220亿美元融资 — 综合报道, 2026-04-02
- OECD Science, Technology and Innovation Outlook — OECD, 2023