3.5倍,还在扩大:OpenAI首份B2B数据揭示,企业AI竞争已进入「复利阶段」

假设你有两家竞争对手:

A公司,每个员工手边都有AI工具,公司AI覆盖率达到85%,CIO上周刚做了汇报,”我们的AI战略落地很顺利”。

B公司,AI工具的覆盖率可能只有50%,但工程师把Codex当成团队成员,财务团队的分析工作70%已经由AI完成初稿,产品团队的竞品研究交给Deep Research自动跑。

你更担心哪家?

2026年5月6日,OpenAI发布了一份叫做《B2B Signals》的报告,第一次用真实数据回答了这个问题。


差距从2倍变成了3.5倍,且仍在加速

OpenAI把企业客户按AI使用量分成两类。处于使用量第95百分位的,叫”前沿企业”(Frontier Firms)。其余的,是普通企业。

数据很直接:

  • 一年前,前沿企业每位员工消耗的AI算力(以生成token数计量)是普通企业的2倍
  • 今天,这个数字是3.5倍

差距在12个月里从2倍扩大到了3.5倍。方向是加速,不是收敛。

但更重要的是背后的机制。你可能会猜:前沿企业是不是就是发消息更多?员工更勤快,发了更多的问答?

报告给出了一个反直觉的答案:不是的。

消息数量(message volume)只能解释前沿优势中的36%。剩下64%,来自每一次交互的复杂度、上下文的丰富程度、以及AI被要求完成的工作的实质性。

换句话说:普通企业的员工在用AI回答问题,前沿企业的员工在用AI执行复杂工作


从”访问”到”深度”:第一阶段已经结束

2022年末,ChatGPT爆发的那个时刻,企业的第一个问题是:我们有AI工具吗?

接下来两年,企业IT部门忙着铺席位、上系统、解除访问限制。这个阶段的核心指标是:有多少员工有账号,DAU是多少,激活率怎么样。CIO们的汇报材料上,跑分的是”AI工具覆盖率”,成功标准是”我们现在80%的员工都能访问AI”。

这个阶段有其合理性。访问是基础。一个员工无法接触到任何AI工具,当然什么都谈不上。但OpenAI的B2B Signals报告等于在宣布:这个阶段已经结束了。访问本身不再是差异化因素。

差异化现在发生在另一个维度:AI有多深地嵌入了真实工作流。

思考以下两种用AI写分析报告的方式:

  • 方式A:员工把草稿发给AI,AI润色一下,员工改几行,发出去。整个过程,AI是一个语言加工工具。
  • 方式B:员工给AI设定任务目标、上传背景资料、提供历史案例和质量标准,然后AI自主完成整个数据分析、结构整理、关键洞察提取,输出一份可以直接使用的报告。整个过程,AI是一个完成实质性工作的协作者。

这两种方式,message数量可能差不多,甚至方式A的消息数更多(来回反复修改)。但方式B产生的token数是方式A的十倍以上,完成的工作质量、速度和一致性也是天壤之别。更重要的是,方式B释放了员工的时间,让他们能做只有人才能做的事情——制定战略、建立关系、做判断。

前沿企业和普通企业的差距,就在这里。


Codex差距:16倍,不是1.6倍

如果3.5倍的整体差距让你觉得”还好,可以追上”,那么有一个具体数据可能会改变你的感受。

在Codex(OpenAI的AI编程Agent)的使用上,前沿企业每位员工发送的消息数,是普通企业的16倍

不是1.6倍,是16倍。

类似的规律也出现在其他”委托型”工具上——ChatGPT Agent、Deep Research、Apps in ChatGPT。这些工具的使用差距,都比通用ChatGPT的使用差距大得多。

值得注意的是,这些”委托型”工具恰恰也是最难大规模推广的工具。它们需要用户理解更复杂的任务分解方式,需要组织建立对AI输出的验证机制,需要管理者允许员工把真实决策权下放给AI。正是这种难度,制造了前沿企业和普通企业之间的壁垒。

这说明前沿企业的AI战略,已经从”扩大AI访问面”转向了”加深AI委托深度”。他们不是在让更多人偶尔使用AI,而是在让特定工作流完全依赖AI执行。这个战略转移有一个关键含义:从”工具采购”逻辑,变成了”工作流重构”逻辑。前者的决策是买多少席位;后者的决策是哪些工作流值得完全交给AI、如何验证AI的输出质量。这是两个完全不同的管理挑战。


Cisco:把AI当”团队的一部分”

理论分析容易,Cisco的案例来印证就更有说服力了。

Cisco是一家全球网络和安全设备巨头,员工超过8万人,工程组织按常理是最难快速转变的。但OpenAI的报告引用了他们的数据:当Cisco把Codex真正嵌入核心软件工程工作流之后,结果令人印象深刻:

  • 构建时间缩短约20%
  • 每月节省超过1500个工程小时
  • 缺陷解决吞吐量提升10-15倍

把最后一个数字放进具体场景:一个工程团队原来每个月解决100个缺陷,现在在同样的人力下可以解决1000-1500个缺陷。这不是小幅度的效率提升,这是量级的改变。

Cisco的工程团队事后总结的关键洞察是:“当我们把Codex视为团队的一部分时,收益最大。”

注意这个表述。不是”当我们让Codex帮助我们”,不是”当我们用Codex作为工具”,而是”把Codex视为团队的一部分”。从”工具”到”队员”,这个认知跨越,是前沿企业最难被模仿的东西——它不是技术配置,而是组织文化和思维模式的根本性改变。


为什么差距是”复利”而不是”线性”

看到这些数字,最自然的反应是:那普通企业赶紧追上不就行了?

问题在于,这个差距有一个让人不安的特性:它是复利性的,而不是线性的。

前沿企业的工程师用Codex已经一年了。在这一年里,他们积累了:

  • 一套与Codex配合工作的prompt库和工作流规范
  • 代码库里大量”Codex友好”的注释和文档结构
  • 工程师如何分解任务、如何验证AI输出的肌肉记忆
  • 技术债在Codex协助下提前清偿,系统可维护性提高
  • 一批真正变成AI原生工作者的工程师,而不只是偶尔使用AI的普通工程师

普通企业的工程师今天决定认真开始用Codex。他们可以立刻购买席位,但买不到那一年的”AI原生工作文化”。他们需要从零开始走一遍前沿企业已经走过的路——踩同样的坑,积累同样的经验,建立同样的信任关系。

OpenAI用的是”operating muscle”(运营肌肉)这个词。前沿企业在AI上建立的,不只是工具能力,而是一套新的组织运转方式。这套运转方式需要时间沉淀,不能直接购买。

这就是为什么差距从2倍变成了3.5倍,而不是从2倍缩小到1.5倍。早行动的企业不只是领先一段距离,它们在以更快的速度积累更强的能力——而这种能力反过来又让它们能更快地采用下一波工具。每一轮新工具出来,前沿企业有经验和框架快速整合;普通企业还在评估和试点。每一个循环,都在加大差距。

马太效应的经典形态:强者愈强,差距加速扩大。


行业分布:没有统一的AI落地排行榜

报告还提供了一个重要的行业层面数据,值得单独提出来。

OpenAI发现:没有一个统一的AI采用率排行榜。 不同行业在不同工具上各有领先:有些行业领先于ChatGPT的广泛采用,另一些行业领先于Codex的深度使用,还有一些领先于API调用强度。

具体到职能层面,AI的使用模式差异也非常明显:

  • IT和安全团队:集中于操作指导(how-to queries)和问题排查
  • 软件开发和数据科学团队:高度集中于代码相关任务
  • 财务团队:主要用于分析和计算

这个发现有一个重要的实践含义:不存在”统一的AI战略”可以覆盖所有职能。 每个职能的AI深度化路径是不同的,甚至不可互换。

这也解释了为什么”全公司AI转型”这个说法,落地往往是困难的——它掩盖了职能之间的本质差异,容易变成统一但浅层的推进,而不是在各个关键职能上真正深入。前沿企业更可能的做法,是在每个核心职能领域都有专门的AI深化措施,而不是等待一个横扫全公司的统一系统。


与Gartner数据的交叉印证:为什么裁员没带来ROI

就在同一天(2026年5月5日),Gartner发布了一项独立调查的结论,正好可以和OpenAI的数据形成有趣的对照。

Gartner调查了350家年收入超过10亿美元的全球企业,发现:约80%已因AI自动化裁员,但裁员并未转化为投资回报。

为什么会这样?

结合OpenAI B2B Signals的数据,有一个清晰的解释:这些企业的AI应用,停留在了”削减人力”这个层面,而没有进入”重构工作流”的层面。 他们把AI的价值模型定义为”AI替代人力=可以裁员=降低成本=ROI”。但这个模型忽略了一个关键事实:裁员之后,剩余员工的工作量并没有消失,AI能否真正承接这部分工作决定了ROI能否实现。而大多数情况下,企业在裁员时过高估计了AI的独立工作能力,低估了AI需要的人力投入(监督、验证、维护)。

前沿企业的Cisco案例是另一条路径:不是裁员,而是让同样的工程师完成10-15倍吞吐量的缺陷解决。人力规模不变,产出密度飞升。这种模式创造的价值,不只是省了人力成本,而是真正增加了业务产出——更快速的产品迭代、更低的技术债、更强的系统稳定性。

Gartner的数据说:80%的企业在裁员,但ROI不见了。 OpenAI的数据说:前沿企业在加深使用,ROI在复利增长。

两组数据放在一起,指向同一个结论:AI变革的成败,不在于减法(裁员),而在于乘法(工作流重构)。


另一种声音:这份数据有多少是中立的?

在接受这一切叙述之前,有一个值得诚实面对的问题:OpenAI发布的数据,有多大程度上是中立的?

B2B Signals的核心信息是”加深使用=更好的结果”。而OpenAI是一家卖AI工具的公司。”你用得不够深,所以没有竞争优势”——这个逻辑对OpenAI的销售目标非常有利。

这不意味着数据是假的。但这意味着我们应该带着批判性来读这份报告。有几个问题值得追问:

前95百分位的”前沿企业”,是因为深度使用而领先,还是因为本身领先才有资源深度使用? 因果方向很重要。如果是后者,深度使用只是结果,而不是原因,那么鼓励普通企业”加深使用”并不能带来同等的回报。

Cisco的案例,代表性如何? 大型科技公司有数百名工程师专门负责AI工具整合,有充足的预算测试新工具,有技术能力解决配置问题。这些条件对中小企业并不容易复制。

“token消耗更多=更好的结果”这个测量方式,是否存在内在偏差? 更多的token可能意味着更复杂的任务,也可能意味着更多的无效反复。

这些问题不是为了推翻报告的结论,而是为了让结论更准确。核心洞察——”企业AI应用的差距在加深,且与使用深度相关”——大概率是真实的。但这个差距的成因和追赶路径,可能比报告描述的更复杂。


不是结论,是开放式问题

OpenAI的数据截止到今天。报告里没有预测未来。

但可以做一个简单的外推:如果前12个月差距从2倍扩大到3.5倍,那这个轨迹继续会是什么样子?5倍?8倍?

回到文章开头的问题:你更担心哪家竞争对手,AI覆盖率85%的A公司,还是AI深度使用的B公司?

OpenAI的数据已经给出了答案。B公司不只是领先了一段距离,它正在以更快的速度积累无法购买的优势——而A公司还在数席位,还在做覆盖率汇报。

当3.5倍变成5倍的那一天,两家公司已经不在同一个竞争平面上了。


参考资料

  1. OpenAI. (2026-05-06). Introducing B2B Signals: How frontier enterprises are building an AI advantage. OpenAI Official Blog.

  2. Cisco Codex Enterprise Case Study. 引用自 OpenAI B2B Signals 报告正文 (2026-05-06).

  3. Gartner. (2026-05-05). Gartner Says Autonomous Business and Artificial Intelligence Layoffs May Create Budget Room but Do Not Deliver Returns. Gartner Newsroom.

  4. OpenAI. (2026-04-28). Introducing Frontier Alliances. OpenAI Official Blog. (背景参考:企业AI分发策略)

2026年5月6日,OpenAI发布了一份不怎么起眼的报告——《B2B Signals》。

它没有宣布新模型,没有谈融资,也没有和竞争对手互相缠斗。它只是安静地说:我们看了企业客户的使用数据,想告诉你们,企业之间的AI差距正在以你们可能没有意识到的速度扩大。

而那个速度,确实让人停下来想了想。

这份报告的数据来源是OpenAI企业产品的实际使用记录——经过去标识化和聚合处理,OpenAI员工没有查看过任何个体企业或用户的原始数据,但整体的使用模式已经清晰可见。这是OpenAI首次把内部企业使用数据以结构化方式向外界披露,作为其全新”B2B Signals”系列报告的第一篇。信号很微弱,但指向性很强。


一个被忽视的信号:差距从2倍变成了3.5倍

OpenAI把企业客户分成两类。处于使用量第95百分位的,叫”前沿企业”(Frontier Firms)。其余的,是普通企业。

一年前的数据是:前沿企业每位员工消耗的AI算力(以生成token数计量)是普通企业的2倍

今天,这个数字是3.5倍

仅仅12个月,差距从2倍扩大到3.5倍。按这个速度,再过12个月会是多少?

这本身就是一个值得琢磨的问题。但更值得琢磨的,是这个差距是怎么产生的。

报告给出了一个反直觉的答案:不是因为前沿企业的员工发了更多消息。

消息数量(message volume)只能解释前沿优势中的36%。剩下64%,来自更深层的东西——每一次交互的复杂度、上下文的丰富程度、以及AI被要求完成的工作的实质性。

换句话说:普通企业的员工在用AI回答问题,前沿企业的员工在用AI执行复杂工作。

这个区别听起来微妙,实际上是本质性的。回答问题,AI是一个即时工具;执行复杂工作,AI是一个持续协作者。对AI的投入密度、管理方式、和预期产出,在这两种模式下完全不同。对于回答问题的场景,员工可能每天发20条消息,每条消息得到一段简单答复;对于执行复杂工作的场景,一个AI Agent可能需要数百步操作、数千次内部推理,才能完成一项端到端的任务。两者的token消耗比,轻松可以达到100:1。


从”访问”到”深度”:第一阶段已经结束

2022年末,ChatGPT爆发的那个时刻,企业的第一个问题是:我们有AI工具吗?

接下来两年,企业IT部门忙着铺席位、上系统、解除访问限制。这个阶段的核心指标是:有多少员工有账号,DAU是多少,激活率怎么样。CIO们的汇报材料上,跑分的是”AI工具覆盖率”,成功标准是”我们现在80%的员工都能访问AI”。

这个阶段有其合理性。访问是基础。一个员工无法接触到任何AI工具,当然什么都谈不上。但OpenAI的B2B Signals报告等于在宣布:这个阶段已经结束了。访问本身不再是差异化因素。

差异化现在发生在另一个维度:AI有多深地嵌入了真实工作流。

报告做了一个精准的类比:普通企业用AI来回答问题,前沿企业用AI来执行复杂工作

思考以下两种用AI写分析报告的方式:

  • 方式A:员工把草稿发给AI,AI润色一下,员工改几行,发出去。整个过程,AI是一个语言加工工具。
  • 方式B:员工给AI设定任务目标、上传背景资料、提供历史案例和质量标准,然后AI自主完成整个数据分析、结构整理、关键洞察提取,输出一份可以直接使用的报告。整个过程,AI是一个完成实质性工作的协作者。

这两种方式,message数量可能差不多,甚至方式A的消息数更多(来回反复修改)。但方式B产生的token数是方式A的十倍以上,完成的工作质量、速度和一致性也是天壤之别。更重要的是,方式B释放了员工的时间,让他们能做只有人才能做的事情——比如制定战略、建立关系、做判断。

前沿企业和普通企业的差距,就在这里。


Codex差距:16倍,不是1.6倍

如果3.5倍的整体差距让你觉得”还好,可以追上”,那么有一个具体数据可能会改变你的感受。

在Codex(OpenAI的AI编程Agent)的使用上,前沿企业每位员工发送的消息数,是普通企业的16倍

不是1.6倍,是16倍。

这个数字揭示了一件事:Codex不是前沿企业和普通企业都在用的工具、只是前者用得多一点而已。Codex实际上是前沿企业的战略基础设施,而对普通企业来说,它还只是一个偶尔尝试的工具。

这种差距不仅仅体现在Codex上。ChatGPT Agent、Apps in ChatGPT、Deep Research这些”委托型”工具,都呈现出类似的规律——前沿企业在这些工具上的使用密度,显著高于通用ChatGPT对话。

这说明前沿企业的AI战略,已经从”扩大AI访问面”转向了”加深AI委托深度”。他们不是在让更多人偶尔使用AI,而是在让特定工作流完全依赖AI执行。

这个战略转移有一个关键含义:从”工具采购”逻辑,变成了”工作流重构”逻辑。前者的决策是买多少席位、花多少预算;后者的决策是哪些工作流值得完全交给AI、如何验证AI的输出质量、如何在组织里建立新的协作规范。这是两个完全不同的管理挑战。


Cisco:把AI当”团队的一部分”

理论分析容易,有Cisco的案例来印证就更有说服力了。

Cisco是一家全球网络和安全设备巨头,员工超过8万人,工程组织按常理是最难快速转变的。但OpenAI的报告引用了他们的数据:当Cisco把Codex真正嵌入核心软件工程工作流之后,发生了什么:

  • 构建时间缩短约20%
  • 每月节省超过1500个工程小时
  • 缺陷解决吞吐量提升10-15倍

把这组数字放在一个具体场景里想象:一个工程团队原来每个月解决100个缺陷,现在在同样的人力下可以解决1000-1500个缺陷。这不是小幅度的效率提升,这是量级的改变。而且这个改变不需要多招人——改变的是每个工程师的工作方式。

Cisco的工程团队事后总结的关键洞察是:“当我们把Codex视为团队的一部分时,收益最大。”

注意这个表述方式。不是”当我们让Codex帮助我们”,不是”当我们用Codex作为工具”,而是”把Codex视为团队的一部分”。

这个认知跨越,正是前沿企业和普通企业之间最难模仿的东西。它不是技术配置,而是组织文化和思维模式的根本性改变。当工程师开始把AI当成队友而不是工具,他们会愿意花时间给AI提供更好的上下文,愿意信任AI的输出并在此基础上构建,而不是每次都从零开始验证。这种信任关系的建立,需要时间,需要失败,需要迭代。


为什么差距是”复利”而不是”线性”

看到这些数字,最自然的反应是:那普通企业赶紧追上不就行了?

问题在于,这个差距有一个让人不安的特性:它是复利性的,而不是线性的。

想象两家企业,一家是前沿,一家是普通。

前沿企业的工程师用Codex已经一年了。在这一年里,他们积累了:

  • 一套与Codex配合工作的prompt库和工作流规范
  • 代码库里大量”Codex友好”的注释和文档结构
  • 工程师如何分解任务、如何验证AI输出的肌肉记忆
  • 技术债在Codex协助下提前清偿,系统可维护性提高
  • 在AI使用中积累的失败经验,形成了内部知识,使下一次尝试成功率更高
  • 一批工程师因为这段经历,真正成为了AI原生工作者,而不只是偶尔使用AI的普通工程师

普通企业的工程师今天决定认真开始用Codex。他们可以立刻购买席位,但他们买不到那一年的”AI原生工作文化”。他们需要从零开始走一遍前沿企业已经走过的路——踩同样的坑,积累同样的经验,建立同样的信任关系。

OpenAI的报告提到了这一点,用的是”operating muscle”(运营肌肉)这个词。前沿企业在AI上建立的,不只是工具能力,而是一套新的组织运转方式。这套运转方式需要时间沉淀,不能直接购买。

这就是为什么差距从2倍变成了3.5倍,而不是从2倍缩小到1.5倍。早行动的企业不只是领先一段距离,它们在以更快的速度积累更强的能力——而这种能力反过来又让它们能更快地采用下一波工具。新工具出来,前沿企业有经验和框架快速整合;普通企业还在评估和试点。每一个这样的循环,都在加大差距。

马太效应的经典形态:强者愈强,差距加速扩大。

这种复利性,在传统商业竞争中并不罕见——品牌、数据、规模都有类似属性。但AI能力的复利速度更快,因为每一轮技术迭代的周期更短,而能力越强的企业往往有更多资源更快地采用下一代技术。


三个被误读的信号

报告里还有几个细节,值得单独拿出来看。

误读一:AI应用的主战场是ChatGPT这类通用对话

实际上,报告发现企业AI的真正分化,发生在专业垂直工具上——Codex(编程)、Deep Research(研究)、Apps in ChatGPT(自定义应用)、ChatGPT Agent(任务执行)。这些工具的使用差距,都比通用ChatGPT的使用差距大得多。

这意味着:一个企业AI策略如果只是”铺ChatGPT席位”,实际上在前沿维度上几乎没有布局。采购的动作让指标好看,但并没有创造真正的竞争优势。真正的分化发生在那些需要更高使用密度和更深工作流整合的工具上,而这些工具往往也是企业最难大规模推广的。

误读二:AI落地是全公司同步的,可以统一管理

报告发现,AI深度使用的分布是高度职能化的:

  • IT和安全团队集中在操作指导(how-to queries)和问题排查
  • 软件开发和数据科学团队高度集中在代码相关任务
  • 财务团队主要用于分析和计算

这个发现的实践意义是:不存在”统一的AI战略”可以覆盖所有职能。 每个职能的AI深度化路径是不同的,甚至不可互换。一个为财务团队设计的AI工作流,不能直接移植到工程团队;一个工程团队用Codex的成功方法,也无法直接复制给销售团队。

这也解释了为什么”全公司AI转型”这个说法,落地往往是困难的——它掩盖了职能之间的本质差异,容易变成统一但浅层的推进,而不是在各个关键职能上真正深入。前沿企业更可能的做法,是在每个核心职能领域都有专门的AI深化措施,而不是等待一个横扫全公司的统一系统。

误读三:今天没行动,看别人先踩坑再说

这个想法的问题在于前面提到的复利性。等到”坑”被踩清楚,领先者的优势也已经复利两年了。AI工具本身的风险确实在降低,但竞争差距的风险每过一天都在增加。

更重要的是,这里存在一个信息不对称:看得见的”坑”(数据泄露、AI错误、项目失败)是容易被外界观察和学习的,而看不见的”优势积累”(工作流重构经验、AI原生文化、组织适应能力)是无法从外部学到的。所以等待策略本质上是:等着学别人踩的坑,同时错过了积累自己核心优势的窗口期。


与Gartner数据的交叉印证:为什么裁员没带来ROI

就在同一天(2026年5月5日),Gartner发布了一项独立调查的结论,正好可以和OpenAI的数据形成有趣的对照。

Gartner调查了350家年收入超过10亿美元的全球企业,发现:约80%已因AI自动化裁员,但裁员并未转化为投资回报。

这个结论乍看让人困惑:AI不是应该提高效率、降低成本、带来ROI吗?为什么裁了人,ROI反而没出来?

结合OpenAI B2B Signals的数据,有一个清晰的解释:这些企业的AI应用,停留在了”削减人力”这个层面,而没有进入”重构工作流”的层面。 他们把AI的价值模型定义为”AI替代人力 = 可以裁员 = 降低成本 = ROI”。但这个模型忽略了一个关键事实:裁员之后,剩余员工的工作量并没有消失,AI能否真正承接这部分工作决定了ROI能否实现。而大多数情况下,企业在裁员时过高估计了AI的独立工作能力,低估了AI需要的人力投入(监督、验证、维护)。

前沿企业的Cisco案例是另一条路径:不是裁员,而是让同样的工程师完成10-15倍吞吐量的缺陷解决。人力规模不变,产出密度飞升。这种模式创造的价值,不只是省了人力成本,而是真正增加了业务产出——更快速的产品迭代、更低的技术债、更高的系统稳定性,最终体现为更强的竞争力。

Gartner的数据说:80%的企业在裁员,但ROI不见了。 OpenAI的数据说:前沿企业在加深使用,ROI在复利增长。

两组数据放在一起,指向同一个结论:AI变革的成败,不在于减法(裁员),而在于乘法(工作流重构)。 普通企业做了减法,发现计算器出错了;前沿企业做了乘法,发现答案比预期大得多。


一个关于测量的深层问题

OpenAI在报告中提到了一个微妙但重要的认知转变:前沿企业评估AI的方式,和普通企业不同。

普通企业倾向于问:有多少人在用?月活是多少?激活率怎样?

前沿企业问的是:AI正在改变哪些工作流?它完成的任务,原来需要多少人力?它有没有释放人力去做更高价值的事?哪些业务指标因为AI发生了真实变化?

这个测量框架的差异,本身就是一个差距。因为你测量什么,决定了你优化什么。测量席位的企业,会优化席位数。测量工作流深度的企业,会优化工作流深度。 而这两个优化目标,最终会指向截然不同的未来。

更深层的问题是,前沿企业选择了更难但更有价值的指标。工作流深度不容易测量——你需要理解任务的原始复杂度、AI完成的质量、员工时间的释放情况。这比数席位要复杂得多,也需要更多的前期投入。但只有测量了这些,你才知道AI到底创造了多少价值,也才能有针对性地优化。

OpenAI发布B2B Signals的动机,当然有商业逻辑——它需要告诉企业客户,你们应该加深使用,而不是买了席位就完了。但不管动机如何,数据本身提供了一个清醒的镜子:大多数企业,正处于AI变革的第一阶段末期,而前沿正在进入第二阶段。

第二阶段的核心词汇不再是”访问”,而是”委托”——把真实工作委托给AI Agent,而不是把AI当成一个更聪明的搜索引擎。从”访问”到”委托”,这不只是使用方式的变化,是整个工作组织方式的重构。它需要工程师重新定义什么工作是”人做”、什么工作是”Agent做”;需要管理者建立新的质量验证流程;需要整个组织习惯与AI协作而不是把AI当工具调用。

这个重构,花时间,花精力,也花组织上的政治资本。它是前沿企业愿意早早投入的事,也是普通企业容易推迟的事——因为它的回报不立竿见影,它的过程充满摩擦,它的结果在事前很难量化。


另一种声音:这份数据有多少是中立的?

在接受这一切叙述之前,有一个值得诚实面对的问题:OpenAI发布的数据,有多大程度上是中立的?

B2B Signals的核心信息是”加深使用=更好的结果”。而OpenAI是一家卖AI工具的公司。”你用得不够深,所以没有竞争优势”——这个逻辑对OpenAI的销售目标非常有利。

这不意味着数据是假的。但这意味着我们应该带着一定的批判性来读这份报告。

有几个问题值得追问:

前95百分位的”前沿企业”,是因为深度使用而领先,还是因为本身领先才有资源深度使用? 因果方向很重要。如果是后者,深度使用只是结果,而不是原因,那么鼓励普通企业”加深使用”并不能带来同等的回报。

Cisco的案例,代表性如何? 大型科技公司有数百名工程师专门负责AI工具整合,有充足的预算测试新工具,有技术能力解决配置问题。这些条件对中小企业来说,并不容易复制。

“token消耗更多=更好的结果”这个测量方式,是否存在内在偏差? 更多的token可能意味着更复杂的任务,也可能意味着更多的无效反复。OpenAI把token作为”intelligence consumed”来计量,这个框架本身就在强化”更多=更好”的逻辑。

这些问题不是为了推翻报告的结论,而是为了让结论更准确。核心洞察——”企业AI应用的差距在加深,且与使用深度(而非广度)相关”——大概率是真实的。但这个差距的成因可能比报告描述的更复杂,追赶路径也可能因企业类型和规模而有所不同。


不是结论,是开放式问题

OpenAI的数据截止到今天。报告里没有预测未来。

但可以做一个简单的外推:如果前12个月差距从2倍扩大到3.5倍,那这个轨迹继续会是什么样子?

5倍?8倍?还是某个时刻,差距大到前沿企业和普通企业已经不在同一个竞争平面上,讨论”追赶”本身就失去意义?

这个问题没有确定答案。但值得让每一个今天负责AI战略的人,在开会前思考10分钟。

不是”我们要不要用AI”——这个问题在2024年就应该已经有答案了。

不是”OpenAI说得对不对”——每家公司都有自己的利益视角,数据需要批判性阅读。

而是”我们现在处于哪个阶段,我们正在以什么速度走向哪里,以及我们的竞争对手在哪里”。以及,更关键的一个问题:

当3.5倍变成5倍的那一天,你希望你的企业站在哪一边?


参考资料

  1. OpenAI. (2026-05-06). Introducing B2B Signals: How frontier enterprises are building an AI advantage. OpenAI Official Blog.

  2. Cisco Codex Enterprise Case Study. 引用自 OpenAI B2B Signals 报告正文 (2026-05-06).

  3. Gartner. (2026-05-05). Gartner Says Autonomous Business and Artificial Intelligence Layoffs May Create Budget Room but Do Not Deliver Returns. Gartner Newsroom.

  4. OpenAI. (2026-04-28). Introducing Frontier Alliances. OpenAI Official Blog. (背景参考:企业AI策略层面的对比视角)