AMI Labs $10.3亿种子轮:Yann LeCun 的"世界模型"路线正在发起对 LLM Scaling 的最大一次异议投票
2026年3月,Yann LeCun 的 AMI Labs 完成了欧洲史上最大的种子轮融资——$10.3亿。这不是一笔普通的创业融资,而是一张对整个 AI 行业主流路线的”异议投票”。当所有人都在比拼谁的语言模型更大、训练数据更多、算力投入更高时,LeCun 说:这条路是死胡同。AI 不应该只从文本中学习——它应该从现实世界中学习。$10.3亿的种子轮说明至少有一群严肃的投资者同意他的观点。
$10.3亿种子轮打破了什么纪录
先看数字的震撼性。
$10.3亿种子轮——欧洲史上最大。在全球 AI 融资史上,这也是排名前列的种子轮金额。作为对比:2023年全球 AI 领域的种子轮中位数约 $350万。AMI Labs 的 $10.3亿是中位数的近300倍。
这个金额本身就是一个信号:投资者不只是在投一家创业公司——他们在投一条技术路线。 如果你相信 LLM scaling(不断增大语言模型规模)就是通往 AGI 的唯一道路,那 AMI Labs 的 $10.3亿就是一笔”浪费”。但如果你认为 LLM scaling 可能遇到瓶颈(事实上多项研究已经开始显示这种迹象),那 AMI Labs 就是你对冲风险的最佳工具。
AMI Labs 的创始人是 Yann LeCun——Meta 首席 AI 科学家,图灵奖得主,深度学习三巨头之一(与 Geoffrey Hinton 和 Yoshua Bengio 并称)。LeCun 在 AI 领域的地位类似于物理学中的爱因斯坦——当他说”当前的方法有根本性缺陷”时,整个领域都会认真倾听。
(来源: 多来源/AMI Labs, 2026-03-26)
世界模型 vs 语言模型:两条通往 AGI 的路
LeCun 的核心主张可以用一句话概括:当前的 LLM(大型语言模型)不可能通往 AGI,因为它们只从文本中学习,而现实世界远比文本丰富。
要理解这个主张,需要理解两种根本不同的 AI 方法论。
路线 A:LLM Scaling(当前主流)。核心思路是:用越来越多的文本数据训练越来越大的语言模型。从 GPT-3(1750亿参数)到 GPT-4(据估计约万亿参数)到 GPT-5.4-pro(参数未公开但更大),每一代模型都更大、用更多数据训练、表现更好。这条路线的逻辑是”规模即能力”(scale is all you need)——只要模型足够大、数据足够多,涌现出的能力会越来越接近通用智能。OpenAI、Google、Anthropic 都在这条路线上,投入了数百亿美元。
路线 B:世界模型(LeCun 的主张)。核心思路是:真正的智能不来自于文本——来自于对物理世界的理解。一个婴儿在学会说话之前就已经理解了重力、因果关系和空间几何——这些理解来自于对世界的直接感知和交互,而不是来自于阅读文本描述。LeCun 认为 AI 需要的不是更多文本——而是一个”世界模型”(world model),能够像人类一样通过观察、预测和验证来理解现实。
两条路线的分歧不是技术细节——而是对”智能的本质”的根本性不同理解。LLM Scaling 派认为语言是智能的核心载体——如果你能完美地预测下一个词,你就理解了世界。世界模型派认为语言只是智能的一种表达形式——真正的理解来自于对物理规律的内化,语言只是用来描述这些理解。
(来源: 综合分析; stal.blogspot.com/LeCun-Chollet AGI 辩论, 2026-03-27)
Chollet 的批判:LLM Scaling 为什么可能走不通
LeCun 不是唯一质疑 LLM Scaling 的人。François Chollet——Keras 深度学习框架的创造者、Google AI 研究员——提出了一系列更具体的技术批判。
Chollet 的核心论点是:LLM 展现的”智能”本质上是记忆和插值,而不是真正的推理和创造。 他用一个直观的比喻解释:如果你背下了1000道数学题的答案,你在这1000道题上的”表现”是完美的。但如果有人给你第1001道题——一道全新的、你没见过的题——你就无能为力了。LLM 做的本质上就是这件事:它”记住”了训练数据中的大量模式,然后在遇到新输入时进行”插值”(在已知模式之间推断)。当新输入足够接近训练数据时,表现很好;当新输入足够不同时(即”分布外”场景),表现急剧下降。
Scale AI 的基准测试数据部分支持了 Chollet 的论点。Humanity’s Last Exam(HLE)是一个专门设计来测试 AI 在”分布外”场景中能力的基准。最强的模型 GPT-5.4-pro 也只达到了45.32%——不到一半。Claude Opus 4.6 thinking 为36.24%。这些数字表明:当面对真正全新的、训练数据中没有覆盖的问题时,即使最强的 LLM 也远非”智能”。
Remote Labor Index(RLI)从另一个角度提供了证据。前沿 AI Agent 只能自动化2.5%的远程工作——而远程工作中的大部分任务恰恰需要”分布外推理”(处理意外情况、适应新需求、创造性解决问题)。LLM 在标准化任务(如邮件分类、报告生成)上表现出色,但在需要真正理解和推理的任务上仍然力不从心。
如果 Chollet 和 LeCun 是对的——LLM Scaling 最终会遇到一个不可逾越的瓶颈——那目前 AI 行业数千亿美元的投资中有相当一部分可能是”沉没成本”。 AMI Labs 的 $10.3亿种子轮就是对这种可能性的对冲。
(来源: Scale AI Labs/HLE+RLI, 2026-03-27; stal.blogspot.com/Chollet, 2026-03-27)
AMI Labs 在做什么:从 Nabla 合作看世界模型的商业化路径
理论辩论之外,AMI Labs 已经开始了具体的商业化尝试。
AMI Labs 与数字健康公司 Nabla 建立了合作关系。Nabla 是一家法国 AI 健康公司,专注于用 AI 帮助医生提高诊疗效率。这个合作暗示了世界模型在医疗领域的应用方向:医疗诊断需要的不只是文本理解(读病历)——还需要对物理世界的理解(理解症状之间的因果关系、预测疾病的发展轨迹)。 一个能理解”如果血糖持续升高→肾脏可能受损→需要调整治疗方案”这种因果链的世界模型,比一个只能在病历文本中匹配模式的 LLM 更有诊断价值。
但世界模型的商业化面临一个根本挑战:训练数据的获取。LLM 可以用互联网上的海量文本来训练——文本数据几乎是无限的。世界模型需要的是物理世界的数据——视频、传感器数据、3D 环境模拟——这类数据的获取成本远高于文本。$10.3亿种子轮中的相当一部分可能用于建设数据获取基础设施(如大规模视频采集、物理仿真环境构建)。
LeCun 本人曾在多个场合描述过他设想的世界模型架构。核心是一种”分层预测系统”——模型在多个抽象层次上对世界的未来状态做出预测,然后通过与实际观察的对比来修正自己的理解。这与婴儿学习世界的方式惊人相似:婴儿通过”预测→观察→惊讶→修正”的循环来建立对物理世界的理解。
(来源: 多来源/AMI Labs-Nabla, 2026-03-26)
大多数人没看到的:AGI 路线分叉对整个 AI 产业的连锁影响
大多数人把 AMI Labs 的融资当作”又一笔 AI 大额融资”。但他们没看到的是这笔融资代表的 AGI 路线分叉对整个 AI 产业链的连锁影响。
第一个连锁影响是 GPU 需求结构的变化。 LLM 训练需要大量的 GPU 并行计算——这是 Nvidia 过去3年市值暴涨的核心驱动力。世界模型的训练需求与 LLM 不同——它更多地依赖视频处理和3D 仿真,这些任务对 GPU 的需求特征不同(更强调内存带宽而非纯算力)。如果世界模型路线获得更多关注,GPU 市场的需求结构可能发生变化——这对 Nvidia 的 H100/B200 产品线和 Arm 刚发布的 AGI CPU 都有影响。
第二个连锁影响是训练数据的价值重估。 在 LLM 范式下,文本数据最有价值——这解释了为什么 Reddit、Wikipedia、新闻媒体的内容被大量用于模型训练(以及随之而来的版权争议)。在世界模型范式下,视频数据、物理仿真数据、传感器数据会变得更有价值——这意味着拥有大量物理世界数据的公司(如 Tesla 的自动驾驶数据、Google 的 Street View 数据、工业制造企业的传感器数据)可能发现自己坐在了一座金矿上。
第三个连锁影响是人才流动的方向变化。 目前 AI 领域最顶尖的研究者大多集中在 LLM 方向——NLP、Transformer 架构、对齐研究。如果世界模型方向获得 $10.3亿级别的资金支持,它将吸引一批新的研究者从计算机视觉、机器人学、物理仿真等领域进入 AI 核心圈。LeCun 作为 Meta 首席 AI 科学家同时创办 AMI Labs,本身就是人才跨界流动的体现。
第四个洞察涉及 AI 安全。Bengio(LeCun 的图灵奖同事)同天警告 AI 模型展现出”欺骗”行为——这些行为是 RLHF 训练方法在 LLM 上产生的副作用。世界模型采用完全不同的训练范式(自监督学习而非 RLHF),可能不会产生同样的对齐问题。如果世界模型确实比 LLM 更容易对齐——那 LeCun 的路线不仅在能力上可能更有潜力,在安全上也可能更有优势。
(来源: 综合分析)
反面论点:LLM Scaling 可能还远没到极限
在被 LeCun 的异议叙事带跑之前,有一个同样有力的反面论点值得认真考虑。
GPT-5.4-pro 在 HLE 上达到45.32%——这比上一代提升了显著幅度。Gemini-3-pro-preview 达到37.72%。这些数字虽然不到一半,但增长趋势是陡峭的。如果这种增长趋势持续——而目前没有明确的证据表明它会停止——LLM 可能在2-3年内在 HLE 上达到80%以上。到那时,”LLM 只是插值”的批判就不再成立了。
更重要的是,LLM 正在快速变得”多模态”。Google 的 Gemini 3.1 Flash Live 已经支持实时音视频处理和工具调用,在 ComplexFuncBench Audio 上得分90.8%。如果 LLM 不仅能处理文本,还能处理视觉、听觉和工具使用——它与”世界模型”之间的边界就开始模糊。也许 LLM 不是”死胡同”——它只是通过一条不同的路径走向同样的目标。
OpenAI 和 Anthropic 在 LLM Scaling 路线上已经投入了数百亿美元,雇佣了全球最顶尖的数千名 AI 研究者。这种人才和资金的集中度本身就是一种”路径依赖”优势——即使世界模型在理论上更优,LLM 生态系统在工程成熟度、工具链、部署经验上的领先也可能延续数年。
LeCun 的 $10.3亿与 OpenAI 的 $60亿+、Anthropic 的 $30亿+相比仍然微不足道。世界模型要证明自己,需要的不只是理论正确性——还需要工程上的可行性和商业上的可行性。这些证明需要时间——也许5年,也许10年。在那之前,LLM Scaling 仍然是AI产业的主赛道。
(来源: Scale AI Labs/HLE, 2026-03-27; MarkTechPost/Gemini 3.1 Flash Live, 2026-03-27)
对从业者的”so what”
如果你是 AI 研究者——AMI Labs 的 $10.3亿代表了一个新的”funding pool”。如果你的研究方向在世界模型、具身认知、物理仿真、因果推理等领域,你的工作在接下来2-3年内可能获得比以往更多的关注和资金。
如果你是 AI 公司 CTO——不要把所有赌注押在 LLM Scaling 上。至少保留10-15%的研发预算探索替代路线(多模态学习、因果推理、仿真训练),作为对 LLM 瓶颈的风险对冲。
如果你是投资者——AMI Labs 是”路线分叉赌注”的代表。它的成功不取决于 AMI Labs 本身是否盈利——而取决于 LLM Scaling 是否遇到瓶颈。如果你的投资组合中全是 LLM 公司(OpenAI、Anthropic、Mistral),AMI Labs 类型的投资可以作为”路线保险”。
如果你是 Nvidia/Arm 的战略规划者——世界模型的训练需求与 LLM 不同。如果世界模型路线获得更多牵引力,你需要评估当前的产品路线图是否过度优化了 LLM 训练场景。
参考资料
- AMI Labs Raises $10.3B Seed Round — Europe’s Largest — 多来源综合, 2026-03-26
- LeCun vs Chollet AGI Debate: World Models vs LLM Scaling — stal.blogspot.com, 2026-03-27
- Scale AI Leaderboard — Humanity’s Last Exam — Scale AI Labs, 2026-03-27
- Remote Labor Index — Scale AI & CAIS, 2026-03-27
- Yoshua Bengio Warns AI Shows Dangerous Traits — Financial Post, 2026-03-27
- AMI Labs Partners with Nabla — 多来源综合, 2026-03-26