2026 年 3 月的某一天,Andrej Karpathy 收到一条提示:有一份神秘礼物正在发往他位于 Palo Alto 的实验室,唯一的线索是”它需要 20 安培的专用电路”。Karpathy 立刻知道来头不小。几天后,NVIDIA 创始人黄仁勋亲自走进他的实验室,搬下一台液冷工作站,附上一张手写纸条:“You were with me every step of the way.”

这台机器是全球首台 NVIDIA DGX Station GB300——748GB 统一内存、20 petaflops FP8 算力、Blackwell Ultra 架构、72 核 Grace ARM 处理器,由戴尔制造,预计商业售价 20 万至 30 万美元。Karpathy 不打算用它来训练下一个大模型。他要用它来养一个叫 “Dobby” 的自主 AI Agent——一个不依赖任何云端 API、能够独立运行数小时研究循环的本地智能体。

这个场景包含了 2026 年 AI 行业最深层的张力:当这个时代最有影响力的 AI 研究者公开宣称自己”不再写代码”,转而用 Agent 编排取代手动编程时,我们面对的不仅是工具链的升级,而是整个研究者身份的根本重构。

从 Vibe Coding 到 Agentic Engineering:一条不可逆的路径

要理解 Karpathy 今天的立场,必须回溯他自己铺设的概念阶梯。

2025 年,Karpathy 创造并推广了 “Vibe Coding” 这个概念——任何人只需用自然语言描述需求,就能获得可运行的软件。这个说法在当时已经足够激进:它意味着编程能力从专业技能降格为通用能力,代码从”手工艺品”变成了”即时生成物”。

但到了 2026 年 3 月,Karpathy 在一次公开分享中宣布了下一个阶段:”我们正在进入 Agentic Engineering 时代。人类不再编写大部分代码。我们指挥、监督、编排 Agent。技术专业知识仍然是倍增器,但人类贡献的比特是稀疏且罕见的。”(据 Next Big Future 报道)

这不是修辞上的夸张。Karpathy 坦承自己的手动编码技能正在萎缩(”atrophying” 是他的原词),因为从 2025 年 12 月开始,Claude Code、OpenAI Codex 等 Agent 跨过了一个”连贯性阈值”(coherence threshold)。在此之前,AI 辅助编程是人类主导、AI 补全;在此之后,AI Agent 可以独立承担完整的编码任务——编辑代码、运行实验、解释结果、迭代改进——循环数天不停歇。

Karpathy 给这个新时代起了个名字:循环时代(Loops Era)。核心思想是,AI 系统不再是单次调用的工具,而是运行持续自我改进循环的自主实体。他的 AutoResearch 项目(发布于 GitHub: karpathy/autoresearch)就是这一理念的极端实现:仅凭一个 Markdown 提示和约 630 行训练代码,在单块 GPU 上运行了 700 次实验——两天之内。Agent 自主编辑 train.py,尝试各种优化(包括调整 QK Norm 和 RoPE 的顺序等非常规架构修改),从失败中学习,继续迭代。最终发现了 20 项有效的训练优化。

这里有一个容易被忽略的细节:Karpathy 描述这个系统时说,它是”模拟一个异步协作的研究社区的种子”。这意味着他的目标不是造一个更好的编码助手,而是复制科学研究本身的社会过程——假设生成、实验设计、数据收集、结果解释、知识积累——只是把所有角色都换成 Agent。

DGX Station GB300:为什么 748GB 统一内存才是真正的叙事

外行看 20 petaflops 的算力数字会感到震撼,但真正让 DGX Station GB300 具有范式意义的是它的内存架构。

传统 GPU 工作站中,GPU 拥有独立的显存(H100 为 80GB),CPU 拥有独立的系统内存,两者通过 PCIe 总线通信,带宽约 64 GB/s。这个瓶颈在推理大模型时是致命的:一个 70B 参数的模型在 BF16 精度下占用约 140GB 内存,超出单块 H100 的 80GB 显存上限,必须量化或使用多卡方案。

DGX Station GB300 采用 NVLink-C2C 互连技术,将 Grace CPU 和 Blackwell Ultra GPU 以 900 GB/s 的双向带宽连接在一个共享内存地址空间中。从软件视角看,不存在”GPU 内存”和”CPU 内存”的区分——只有一个 748GB 的统一内存池,两颗处理器以全速访问。

换算成实际能力:70B 模型轻松装下,还剩 608GB 余量;405B 模型可以完整加载;1 万亿参数的模型在 4-bit 量化下也能本地运行。对比云端推理的每 token 计费模型,这台机器的经济账非常清晰——对于需要长期运行 Agent 的研究者来说,一次性资本支出(即使高达 20-30 万美元)远比持续的 API 调用费用更可控。

Karpathy 的使用场景精确地命中了这个设计的甜点。他的 AutoResearch 框架要求 Agent 维持超长上下文窗口、生成子 Agent、在多小时会话中保持状态。748GB 的统一内存意味着这些会话不会撞上内存墙。他在 X 平台上把 DGX Station 描述为”Dobby 的温馨大房子”——这个比喻不是随口说的。Dobby 项目的本质是一个主权 AI Agent:不依赖 OpenAI 或 Anthropic 的 API,完全在本地运行,拥有自己的计算基底。

黄仁勋选择亲手交付这台机器,绝非简单的公关行为。Karpathy 是 OpenAI 五位联合创始人之一(2015 年,与 Sam Altman、Ilya Sutskever、Greg Brockman、Wojciech Zaremba 共同创立),后来构建了特斯拉 Autopilot 团队,之后回到 OpenAI 担任高级 AI 总监,2024 年离开转向独立研究。他在语言模型和神经网络缩放定律方面的智识贡献,是 Transformer 时代崛起的关键基础之一——而正是 Transformer 推动了高端 GPU 算力需求的爆发,最终让 NVIDIA 成为市值三万亿美元的公司。黄仁勋那张纸条上的”every step of the way”,是对这条因果链的坦诚致意。

安全层的缺口:当 Agent 写代码,谁审计 Agent?

Karpathy 描绘的循环时代图景令人兴奋,但它有一个不可回避的结构性问题:当 AI Agent 成为代码的主要作者,传统的代码安全审计流程就会失效。

人类代码审查的隐含前提是”代码量有限、风格可识别、意图可追溯”。当一个 Agent 在两天内运行 700 次实验、自主修改训练代码时,没有任何人类审查团队能跟上这个节奏。更深层的问题是:Agent 生成的代码可能在功能上完全正确,但在安全性上存在微妙的漏洞——这些漏洞可能不会出现在任何传统的静态分析扫描中,因为它们不是已知的攻击模式,而是 Agent 在优化过程中无意引入的系统性弱点。

这正是 Corridor 这家初创公司切入的缝隙。2026 年 3 月,Corridor 宣布完成 2500 万美元 A 轮融资,估值 2 亿美元,由 Felicis Ventures 领投。更值得玩味的是其天使投资人名单:Anthropic、OpenAI、Cursor、Cognition——这四家公司恰恰是当前 AI Agent 编码工具的核心供应商。Agent 工具的制造者们自己在投资 Agent 安全审计公司,这本身就是一个强烈的信号:它们知道自己的产品会制造安全问题,并且认为这个问题大到足以催生一个独立品类。

Corridor 提出了一个新概念:Agentic Coding Security Management(ACSM),即面向 Agent 生成代码的专门安全管理框架。传统的 SAST(静态应用安全测试)和 DAST(动态应用安全测试)工具假设代码是人类编写的、变更是离散的、审查是同步的。ACSM 需要处理的是完全不同的场景——代码变更是连续的、高频的、由非人类实体生成的,而且变更之间的因果关系可能对人类审查者不透明。

两种对立视角:解放还是失控?

乐观派的论证直截了当:Karpathy 的循环时代代表了科学研究效率的量子跃迁。如果一个 AutoResearch Agent 能在两天内完成人类研究者需要数月才能完成的实验循环,那么整个科学发现的速度将以数量级提升。技术专业知识不会消失,而是从”执行层”上移到”战略层”——研究者不再关心如何实现一个训练循环,而是关心应该探索哪个假设空间。这与历史上每一次工具革命的模式一致:从手工计算到电子计算器,从汇编语言到高级编程语言,每一次抽象层的提升都释放了人类认知资源用于更高层次的思考。Karpathy 本人对 Cursor 等工具的评价也印证了这一点——他认为 LLM 应用的核心价值在于”上下文工程”(context engineering)、多次 LLM 调用的编排、以及为人类在环提供特定领域的 GUI 和”自主性滑块”(autonomy slider)。

悲观派的论证则指向一个更深层的焦虑。当 Karpathy 说”人类贡献的比特是稀疏且罕见的”,这句话的逻辑终点是什么?如果 Agent 的能力持续提升,人类贡献的比特会不会从”稀疏”变为”零”?这不是一个遥远的哲学问题——在 AutoResearch 的 700 次实验中,人类的唯一贡献是初始的 Markdown 提示和 630 行种子代码。之后的一切——假设生成、实验设计、代码修改、结果分析——全部由 Agent 完成。如果 Agent 未来能自主生成初始提示和种子代码(这在技术上没有根本障碍),那么人类在研究循环中的角色将完全消失。更令人不安的是 Karpathy 对 Dobby 项目的定位:一个不依赖任何外部 API 的主权 Agent,在本地硬件上自主运行。当 Agent 拥有了独立的计算基底和自我改进的能力,”谁在控制谁”就不再是一个修辞问题。

我的判断是:短期(1-3 年)内,乐观派是对的。Agent 的能力提升将极大地加速科学研究和软件工程,人类的角色确实会从执行者转变为编排者。但这种转变存在一个结构性风险——随着人类逐渐退出执行层,我们对 Agent 行为的理解和审计能力也在同步退化。Karpathy 坦承自己的编码技能正在萎缩,这不仅是个人状态的描述,也是整个行业即将面临的集体困境:当所有工程师都变成了 Agent 编排者,谁还有能力在 Agent 出错时回到代码层面诊断问题?

交叉分析:硬件、软件和资本的三角博弈

将 DGX Station GB300、AutoResearch、Corridor 的融资这三个事件放在一起看,一条清晰的产业逻辑链浮现出来。

第一层:硬件定义 Agent 的能力边界。 Karpathy 需要 748GB 统一内存来运行 Dobby 的长时研究循环,这说明当前 Agent 的能力不是被算法限制的,而是被内存和算力限制的。NVIDIA 正在通过 NVLink-C2C 等互连技术打破这些硬件瓶颈。DGX Station GB300 支持在本地运行最大到 1 万亿参数的模型,这意味着 Agent 的上下文窗口、推理深度和并行子 Agent 数量都将大幅提升。从这个角度看,黄仁勋给 Karpathy 送这台机器,不只是致敬老朋友——而是在为 NVIDIA 的下一个增长叙事寻找最佳代言人:从”AI 训练的基础设施供应商”转型为”本地 Agent 运行的计算基底供应商”。

第二层:Agent 能力的提升反向推动安全需求。 AutoResearch 证明了 Agent 可以在无人监督下运行数百次代码迭代。这种能力越强大,安全审计的需求就越紧迫。Corridor 获得 Anthropic 和 OpenAI 这些 Agent 制造商的投资,说明连 Agent 的创造者都承认”我们的产品需要一个独立的安全层”。ACSM 作为一个新品类的出现,本质上是 Agentic Engineering 时代的”合规成本”——就像云计算时代催生了 CSPM(云安全态势管理)一样,Agent 编码时代必然催生 Agent 编码安全管理。

第三层:真正的博弈在于”主权”的定义。 Karpathy 选择在本地运行 Agent 而非依赖云端 API,这个选择本身就是一种立场声明。如果 Agent 成为未来研究和工程的核心执行者,那么谁控制 Agent 运行的基础设施,谁就控制创新的节奏。云端 API 模式意味着 OpenAI、Anthropic 等公司拥有最终的控制权——它们可以调整模型行为、限制调用频率、审查输出内容。本地运行模式则将控制权交还给研究者本人。Karpathy 用一台 20-30 万美元的工作站实现了这种独立性;对于拥有更大预算的企业和政府实验室来说,这种”计算主权”的需求将推动整个本地 AI 基础设施市场的增长。NVIDIA 把 DGX Station 定位为”数据中心性能的桌面工作站”,本质上是在提供”AI 主权即服务”——只不过是一次性购买而非订阅。

So What:我们该害怕什么,期待什么

Karpathy 的转变不是个人选择,而是结构性必然。当 Agent 在 2025 年 12 月跨过连贯性阈值后,每一个仍在手动编写大量代码的工程师都面临着同样的问题:你是在坚持一种正在贬值的技能,还是在守护一种仍然必要的审计能力?

答案可能两者皆是。短期内,最稀缺的不是”会用 Agent 的人”(这个门槛会迅速降低),而是”理解 Agent 在做什么的人”。Corridor 的 2 亿美元估值押注的就是这个判断——当代码不再由人类编写时,安全审计不仅不会消亡,反而会成为一个全新的高价值品类。

但更大的问题在于长期。Karpathy 的 Dobby 项目指向一个终局:完全自主、本地运行、自我改进的 AI Agent。当这种 Agent 真正成熟时,”Agentic Engineering”本身也会被 Agent 接管——Agent 编排 Agent,循环套循环,人类连”监督者”的角色都可能变得多余。

黄仁勋那张纸条上的”every step of the way”或许还有另一层含义。NVIDIA 和 Karpathy 一起走过了从 CUDA 到 Transformer 到 Agent 的每一步。但下一步——Agent 自主迭代的循环时代——人类还能不能跟上,已经不再是一个确定的答案。

这才是 Karpathy 不再写代码这件事真正让人不安的地方。不是因为他不写了,而是因为很快,可能没有人需要写了。而当那一天到来时,我们是否还有能力理解那些替我们写代码的实体在做什么——这将决定 AI 时代最终是一场解放,还是一次失控。

参考资料

  1. Jensen Huang Gave Karpathy the First NVIDIA DGX GB300: ‘You Were With Me Every Step’ — ABHS Blog, 2026-03
  2. Andrej Karpathy on Code Agents, AutoResearch and the Self Improvement Loopy Era of AI — Next Big Future, 2026-03
  3. AutoResearch — Karpathy, GitHub