2026年4月23日,NVIDIA创始人兼CEO黄仁勋向全体员工发了一封内部邮件。邮件的内容不是季度业绩,也不是新产品路线图,而是一个邀请——去试用OpenAI当天刚刚发布的GPT-5.5驱动的Codex。

邮件里只有一行话:”Let’s jump to lightspeed. Welcome to the age of AI。”

跳进光速时代吧,欢迎来到AI时代。

这句话被广泛引用,但背后的含义远比表面更深。当全球AI基础设施最核心的供应商,公开宣告自己的员工正在大规模使用竞争合作方的AI工具来改变工作方式——这不是一封邀请函,这是一份来自行业内部的技术验证报告。


1万人,不是数字游戏

任何新产品发布都会有夸张的用户数字。但NVIDIA这次披露的1万人,性质完全不同。

根据NVIDIA官方博客2026年4月23日的披露(来源:blogs.nvidia.com/blog/openai-codex-gpt-5-5-ai-agents/),已有超过10,000名NVIDIA员工——覆盖工程、产品、法务、市场、财务、销售、人力资源、运营和开发者项目——已经在使用GPT-5.5驱动的Codex,形容这种体验为”mind-blowing(让人叹为观止)”和”life-changing(改变了生活方式)”。

这里有一个重要的认知背景需要建立:

NVIDIA的员工构成,与普通企业有本质区别。他们的核心工程师团队每天的工作内容,包括调试CUDA代码、优化GPU内核运算、设计神经网络加速架构、分析浮点运算精度问题。这些工作不仅复杂度极高,而且对AI工具的容错率极低——一个错误的建议不仅无用,还可能造成严重损失。

更重要的是,NVIDIA的工程师知道所有AI模型的底层原理。他们清楚benchmark数字如何产生,清楚哪些性能提升是真实的,哪些是测试条件选择的结果。他们是世界上最难被AI工具的宣传材料所打动的用户群体之一。

所以,当这群人在使用AI工具后说”mind-blowing”,这句话包含的信息密度,远比普通用户的反馈高出数个量级。

这是全球AI领域最懂技术的一批人,在做出”我愿意在真实工作中信任并依赖这个工具”的判断。

这个判断,是当下最有说服力的AI产品市场验证信号之一。


三个数字,打穿三堵墙

理解这次事件的规模意义,需要先了解企业级AI应用一直面临的三大障碍。

第一堵墙:成本墙。

AI推理的成本,一直是企业规模化部署的核心制约。早期GPT系列模型在企业规模下的token成本,使得”随用随查”式的大规模应用在经济上无法成立,企业只能将AI限制在特定高价值场景。

NVIDIA这次披露的数字:运行在GB200 NVL72上的GPT-5.5,每百万token的成本相比上一代系统降低了35倍(来源:NVIDIA官方博客,2026-04-23)。

35倍,不是35%。这是一个量级级别的变化,而不是线性优化。

第二堵墙:能耗墙。

数据中心的电力供给,是AI大规模商用的物理约束。电力不够,就无法扩容;电力成本过高,ROI就无法成立。这是AI基础设施扩张中最难被单纯技术进步解决的问题。

NVIDIA的数字:GB200 NVL72系统每瓦特产生的token输出,是上一代系统的50倍(来源:NVIDIA官方博客,2026-04-23,博客原文描述为”50x higher token output per second per megawatt”)。

50倍每瓦特,意味着同等的电力预算,可以支撑更大规模的推理负载。这在实践中意味着:之前受电力限制而无法扩容的企业AI部署,现在有了新的可能性。

第三堵墙:效率墙。

AI工具是否真的在真实工作中提升了生产力,而不仅仅是在实验室环境下表现良好?

NVIDIA博客中记录的员工反馈(定性描述,非精确统计)是:原本跨越数天的调试工作,在GPT-5.5 Codex辅助下正在以小时为单位完成;原本需要数周的复杂多文件代码库实验,已经变成了通宵进展;团队正在从自然语言提示直接交付端到端功能,可靠性更强,浪费的迭代周期更少。

与此对应的是模型侧数据:根据OpenAI官方发布的基准测试(来源:openai.com/index/introducing-gpt-5-5/,2026-04-23),GPT-5.5在Terminal-Bench 2.0(agentic coding测试集)中达到82.7%(同期竞对Claude Opus 4.7为69.4%,Gemini 3.1 Pro为68.5%),Expert-SWE内部测试中达到73.1%,较上一代GPT-5.4的75.1%和68.5%均有显著提升。

这三个数字背后的意义是:GPT-5.5不是”在同一个赛道上跑得更快”,而是在改变企业级AI应用的基础经济学。成本降35倍、能效升50倍、benchmark领先幅度扩大——这三个维度同时移动,意味着企业AI应用的整体成本收益比,在2026年4月前后发生了结构性变化。


十年合作史:2016年手送DGX-1的那一刻起

任何技术里程碑背后,都有一条看不见的历史积累曲线。

NVIDIA与OpenAI的合作,可以追溯到2016年。那一年,黄仁勋亲手将第一台NVIDIA DGX-1 AI超级计算机送到了OpenAI位于旧金山的总部——这是NVIDIA官博在本次事件中明确记录的历史节点(”The partnership began in 2016, when Huang hand-delivered the first NVIDIA DGX-1 AI supercomputer to OpenAI’s San Francisco headquarters.”)。这台机器,不只是一件商品,而是对一个当时还只是实验室的AI研究组织的战略押注。

在那之后的10年里,两家公司的合作覆盖了AI全栈的每一个层面:

NVIDIA是OpenAI开源权重模型gpt-oss的day-zero合作伙伴,专门为TensorRT-LLM、vLLM和Ollama等生态框架优化模型权重。这意味着每当OpenAI发布新模型,NVIDIA的工程师已经在第一时间完成了针对自家硬件的深度优化,让模型在NVIDIA GPU上的运行效率远超未优化状态。

OpenAI已承诺为其下一代AI基础设施部署超过10吉瓦的NVIDIA系统(来源:NVIDIA官方博客,2026-04-23),这意味着未来数年内,数百万颗NVIDIA GPU将成为OpenAI训练和推理的基础。

更深层的是,两家公司是硅级和协同设计的早期合作伙伴:OpenAI为NVIDIA的硬件路线图提供来自真实训练场景的反馈,NVIDIA则给予OpenAI对新架构的早期访问权限。这种循环让双方都能比行业更快地完成技术迭代。

这种关系最具象的里程碑,是联合启动了第一个GB200 NVL72系统的10万GPU集群(来源:NVIDIA官方博客,2026-04-23)。这个集群不只是展示数字的样板工程,它完成了多次大规模训练运行,验证了系统级可靠性,并为GPT-5.5的训练提供了基础设施支撑。

2016年手送一台机器,2026年整个公司用它的产品工作。10年的合作曲线,在这一刻完成了一次完整的闭合。


Codex的架构设计:为企业安全而生

理解为什么NVIDIA能在如此短的时间内实现大规模落地,需要了解Codex在企业安全方面的架构设计。

企业AI应用面临的最核心障碍之一,从来不是技术能力,而是安全顾虑。企业的核心代码库、客户数据、内部通信,都不能以任何形式流出到外部服务器。早期AI工具的部署,往往因为这一顾虑而被企业安全团队叫停,或者被限制在无法访问核心数据的”沙盒”场景中运行,大幅削弱了实际效用。

Codex的设计明确针对了这个痛点。

根据NVIDIA官方博客的描述,该应用支持通过SSH连接到已获批准的云虚拟机,允许AI代理处理真实的公司数据,同时不将其暴露在NVIDIA内部系统之外。NVIDIA IT部门为每位员工配备了独立的云端虚拟机作为代理的运行沙盒。这提供了双重保障:代理在完整能力下运行(不是受限版本),同时所有操作都具有完整的可审计性。

零数据保留政策意味着会话结束后不留任何数据痕迹;对生产系统的访问权限仅限只读,通过命令行接口和NVIDIA用于运行公司内部自动化工作流的同一套代理工具箱执行。

这套安全架构的设计,回答了企业安全团队最核心的4个问题:数据会流出去吗?(不会)代理能破坏生产系统吗?(不能,只读权限)会有数据残留吗?(不会,零留存政策)我能审计代理做了什么吗?(能,完整可审计)

当这4个问题都有了明确的答案,企业安全部门给出绿灯就变得可能。NVIDIA的快速落地,在某种程度上也是这套安全架构设计有效的验证。


企业AI落地:从”有没有用”到”能不能用”的范式转变

评估AI工具对企业的价值,行业过去的主要框架是:这个AI能不能完成特定任务?准确率是多少?和人类相比提升了多少百分比?

这个框架的核心问题是”有没有用”——以技术能力为中心的评判。

但NVIDIA这次事件揭示了一个不同的评判维度:当成本、安全和工作流集成的问题都被解决之后,企业AI工具的采用能以多快的速度、多大的规模展开?

NVIDIA的答案是:超过1万名员工,覆盖全职能,数周内。

这是一个”能不能用”已经被解决之后,展示出的规模化速度。

这对整个企业AI市场的含义是:障碍不只是技术能力,还有部署可行性(安全架构是否到位)、经济可行性(成本是否在可接受范围)、以及组织可行性(员工是否愿意改变工作方式)。

NVIDIA的案例表明,当这三个维度都达到临界点之后,采用速度可以非常快——快到足以在行业内形成示范效应。

当然,这里有一个不可忽视的视角差异:NVIDIA是一个特例,而不是典型案例。NVIDIA与OpenAI有10年的深度合作,有全球最先进的AI基础设施团队,有高度主动拥抱AI的企业文化,有强烈的商业动机去展示AI工具的价值。对于大多数非科技企业,在没有这些前提条件的情况下复制这个结果,仍然需要相当的时间和投入。

这个反视角不是在否定NVIDIA案例的意义,而是在提醒:它代表的是当前企业AI应用的”最优解”场景,而非平均水平。


第三层洞察:全栈闭环的战略飞轮

如果你只看到”1万人用Codex”这件事,可能会觉得这是一次精心安排的联合营销活动。

但如果把时间轴拉长,你会看到一个更深的结构性变化正在发生:

AI基础设施的全栈整合,第一次在单一生态内形成了真正的双向闭环。

具体来说:NVIDIA提供GPU硬件(GB200 NVL72),OpenAI在NVIDIA算力上训练和运行模型(GPT-5.5),Codex作为工具层被NVIDIA自身员工在真实工作中使用,使用过程中产生的性能需求和边界案例,通过合作伙伴关系反馈回OpenAI的下一代模型设计,OpenAI模型设计的需求又反哺到NVIDIA的硬件路线图。

这是一个完整的价值飞轮:硬件→模型→工具→工作流→反馈→硬件。

而NVIDIA在这个飞轮里的位置,是罕见的双重角色:他们既是飞轮的基础(生产AI时代的铲子),又是飞轮里最早的用户(用铲子挖矿)。

这种双重身份,在AI行业的历史上此前从未出现过。传统软硬件公司的基础设施层和应用层之间,总是存在客户与供应商的边界。而NVIDIA-OpenAI的这个闭环,打破了这个边界:基础设施提供方同时成为了应用层的重度用户,应用层开发者同时依赖基础设施提供方的硬件推进自身进化。

这个飞轮的战略含义在于:OpenAI的10吉瓦采购承诺意味着未来数年,世界上运行GPT系列模型的最大规模用户之一,就是NVIDIA自己。这意味着NVIDIA将持续收到来自最先进AI应用的真实工作负载反馈。这种信息优势,对于下一代芯片的设计而言,比任何市场调研都更有价值。

当你既造最好的铲子,又是第一个用最好的铲子挖矿的矿工,而且挖出来的矿可以帮你造出下一把更好的铲子——这个飞轮一旦转起来,竞争优势是自我强化的。

还有一个更深的含义值得单独说:这种闭环结构,对行业的影响是不对称的。NVIDIA通过”自用”获得的技术反馈,其他GPU供应商无法获得,因为他们不拥有对应的应用层合作关系。这种信息不对称,在接下来几代芯片的迭代中,可能会被放大为更显著的技术差距。换句话说,NVIDIA选择”用自己的铲子挖矿”,不只是一个营销动作,还是一个战略卡位动作。

具体而言,这种信息不对称会通过以下机制发挥作用:当NVIDIA的工程团队每天在真实的编程任务中使用GPT-5.5 Codex,他们会积累一套关于”当前AI代理在哪类工作负载下最容易卡死、在哪类场景下最有效”的第一手数据。这些数据会自然流入NVIDIA与OpenAI的技术对话中,进而影响下一代模型对GPU工作负载的优化方向,以及下一代GPU对LLM推理的硬件特性优化。英特尔、AMD或其他GPU供应商,即使拥有同等性能的硬件,也没有这条信息回路。


一个真实问题:这1万人的数字可靠吗?

值得追问的一点:NVIDIA官博公布的10,000+员工数字,是内部测试数字、实际工作使用数字,还是只是注册账号数字?

这个问题NVIDIA没有给出明确说明。”超过10,000名员工正在使用”(”are already using”)是NVIDIA官博的原文表述,但没有进一步说明这个数字的统计口径——是完成了至少一次实际使用,还是仅仅完成了账号激活?

这不是在否定数字,而是在说:与其纠结于精确的用户数,更值得关注的是那些用”mind-blowing”和”life-changing”来描述体验的NVIDIA员工。他们中覆盖了工程、法务、市场、财务等完全不同的职能——这个覆盖范围,比数字本身更能说明工具的实际效用已经跨越了”仅对技术人员有用”的边界。

当一个法务团队的人和一个GPU工程师都说同一个工具改变了他们的工作方式,这个信号是真实的。


另一个不能回避的问题:这是联合营销吗?

说完数字的可靠性,还有一个更尖锐的问题需要正视:这整件事,是不是一场精心设计的联合营销?

理由是充分的。NVIDIA与OpenAI有深度的商业利益绑定——OpenAI是NVIDIA GPU最大的客户之一,GPT-5.5跑在NVIDIA的GB200上,NVIDIA有强烈的动机通过展示Codex的成功来验证GB200的投资价值。黄仁勋的那封内部邮件,在同一天被NVIDIA官博公开引用,整个叙事的节奏非常完整。

这个质疑不是无理取闹。在AI行业,供应商为客户应用”背书”,客户为供应商硬件”背书”的联合营销案例屡见不鲜。

但这里有一个结构性的理由,说明为什么NVIDIA的案例不能简单地被归类为营销:

NVIDIA的信誉风险是真实的。 如果1万名NVIDIA员工使用Codex之后效果不好,这件事在NVIDIA内部不可能被掩盖——它会直接反映在工程效率上,被员工自己发现并讨论。在全球最透明的科技行业之一,如果有人在撒谎,后果会在数月内通过员工口碑、第三方对比测试和实际代码产出质量中暴露。

换句话说,NVIDIA”公开宣称自己用Codex很成功”,本身就是一个押注——押注的是当外部观察者开始验证这个说法时,能够经受住检验。

这不等于说这次事件没有营销成分。它当然有。但有营销成分,不等于核心内容是虚假的。营销意图和技术真实性,不是互斥的。


结语:光速,是一种什么感觉?

黄仁勋说跳进光速时代。

对于NVIDIA的工程师来说,光速可能意味着:原本需要三天调试的代码问题,今晚就能解决;原本需要整个团队推进的实验,一个人通宵就能完成;原本停在草稿阶段的自然语言设计想法,可以直接生成可运行的实现版本。

但对于整个行业来说,NVIDIA这次事件传递的信号更为深远:

我们已经越过了AI工具的”早期探索期”,正在进入”规模化落地期”。这个转变的标志,不是某一个新模型的benchmark达到了多少,而是当全球最懂AI的公司,开始用最新的AI工具大规模改造自身工作方式,并在短时间内形成了可量化的生产力变化。

这种变化一旦发生,就不会回退。

光速时代的入场券,已经开始发放。问题不再是它会不会到来,而是你的组织是否已经准备好接受这种改变——在工作流层面、在人员培训层面、在安全架构层面、以及在组织文化层面。

黄仁勋发那封邮件的勇气,在于他知道回应的不确定性。让全公司1万名员工去试用一个竞合关系公司的新工具,这不是一个没有风险的决定。但他做了这个决定,而且员工的反应验证了这个判断。

在AI时代,领先者和落后者之间的差距,不总是技术能力的差距,也不总是资金投入的差距。有时候,差距来自于愿不愿意在第一时间跳进去——跳进那个不确定、需要适应、但有可能带来代际跃迁的新工作方式里。


参考资料

  1. NVIDIA官方博客(2026-04-23):OpenAI’s New GPT-5.5 Powers Codex on NVIDIA Infrastructure — https://blogs.nvidia.com/blog/openai-codex-gpt-5-5-ai-agents/
  2. OpenAI官方公告(2026-04-23):Introducing GPT-5.5 — https://openai.com/index/introducing-gpt-5-5/
  3. CNBC报道(2026-04-23):OpenAI announces GPT-5.5, its latest artificial intelligence model — https://www.cnbc.com/2026/04/23/openai-announces-latest-artificial-intelligence-model.html
  4. TechCrunch报道(2026-04-23):OpenAI releases GPT-5.5, bringing company one step closer to an AI ‘super app’ — https://techcrunch.com/2026/04/23/openai-chatgpt-gpt-5-5-ai-model-superapp/