2026 年 4 月的某一天,Meta 内部一块非官方仪表盘悄然下线。这块仪表盘并非什么关键业务系统——它是一名 Meta 员工自发搭建的 AI token 使用排行榜,让同事们可以相互竞争,争夺公司内部”AI 使用量第 1 名”的头衔。排行榜存在的时间不长,但它留下了一个令人尴尬的数据点:Mark Zuckerberg,这位正在押注高达 1350 亿美元 AI 支出计划的 CEO,在这份排行榜上甚至没有进入前 250 名。(来源: Yahoo Finance, 2026-04)

排行榜随即被关闭。但数据已经泄露,故事已经成型。

这不是一则关于某位 CEO 是否”足够勤奋地使用 AI”的八卦。这是一面棱镜,折射出当前企业 AI 转型中最深层的结构性矛盾:当一家公司将 AI 使用量化为排行榜指标、将 AI 工具采用纳入员工绩效目标、并计划在 2026 年投入天文数字的资本支出来追求 AI 超级智能时,最高决策者本人的实际使用数据却讲述了一个完全不同的故事。

这个矛盾不仅属于 Meta。它属于每一家正在推行”全员 AI 化”战略的企业。


第一章:排行榜事件——一块仪表盘引爆的尴尬

从内部工具到公开丑闻

事情的起点并不复杂。一名 Meta 员工——出于硅谷工程师文化中常见的”量化一切”冲动——搭建了一个内部仪表盘,追踪 Meta 员工的 AI token 消耗量,并以排行榜形式呈现。这类非官方工具在 Meta 内部并不罕见;Meta 长期以来鼓励工程师利用内部数据构建各种实验性工具和可视化面板。

排行榜的逻辑很简单:谁消耗的 AI token 最多,谁就排在最前面。Token 是大语言模型(LLM)处理文本的基本单位,每一次向 AI 提问、每一次生成代码、每一次让 AI 总结文档,都会消耗 token。在某种意义上,token 消耗量确实可以作为 AI 使用频率的粗略代理指标。

问题在于,这个排行榜不仅展示了谁用得最多,也暴露了谁用得最少。当 Zuckerberg 的名字未能出现在前 250 名的行列中时,这块仪表盘从一个无害的内部玩具变成了一颗公关定时炸弹。(来源: Yahoo Finance, 2026-04)

排行榜被迅速关闭。但在信息透明度极高的硅谷,这个细节已经流出。

“Tokenmaxxing”:硅谷的新竞赛

Meta 的排行榜事件并非孤立现象。2026 年 4 月,Business Insider 报道了一个正在硅谷蔓延的文化现象——”tokenmaxxing”,即以 AI token 消耗量作为个人或团队竞争力信号的行为模式。(来源: Business Insider, 2026-04) 这个词汇本身就带有自嘲和讽刺的双重意味:”maxxing” 来自互联网亚文化中对极端优化行为的戏称,暗示这种竞赛可能已经偏离了理性。

Tokenmaxxing 的逻辑链条是这样的:企业高管宣布 AI 是公司战略核心 → 管理层将 AI 使用纳入绩效考核 → 员工意识到”被看到在用 AI”比”用好 AI”更重要 → AI token 消耗量成为可量化的”忠诚度信号” → 刷 token 成为一种理性的职场生存策略。

韩国《朝鲜日报》英文版在 2026 年 4 月的一篇报道中,将这种现象描述为”硅谷的 AI Token 竞争文化”,指出这种竞赛正在从个别公司蔓延到整个科技行业的组织文化中。(来源: Chosun English, 2026-04-08)

Meta 的排行榜只是这种文化最具象化的产物。它把一种弥漫在空气中的隐性竞争,变成了一张可以截图、可以传播、可以让 CEO 难堪的排名表。

关闭排行榜:纠错还是灭火?

对于 Meta 关闭排行榜的决定,存在两种截然不同的解读。

善意解读:排行榜是一个非官方工具,从未经过管理层批准,它将 AI 使用简化为单一的 token 消耗量指标,可能鼓励了低质量的 AI 交互(比如为了刷排名而进行无意义的长对话),关闭它是对组织行为的合理纠偏。

批判解读:排行榜之所以被关闭,核心原因是它暴露了一个 Meta 不希望被看到的事实——推动全员 AI 化的最高决策者本人,并不是 AI 的重度用户。关闭排行榜不是纠错,而是信息管控。

我的判断倾向于后者,但原因比表面看起来更复杂。排行榜的问题不在于它”不准确”——token 消耗量确实是一个粗糙的指标,但它至少反映了使用频率的数量级差异。排行榜的真正问题在于,它创造了一个不可控的叙事:当 CEO 自己都不怎么用 AI 时,要求全员 AI 化的合法性基础就被动摇了。

这就引出了一个更大的问题:Meta 的 AI 全员化战略,究竟建立在什么样的基础之上?


第二章:1350 亿美元的 AI 信仰——Meta 的 AI 投入与全员化战略

天文数字的资本承诺

要理解 Meta 内部 AI 排行榜事件的分量,必须先理解 Meta 在 AI 上的投入规模。

2026 年 1 月 28 日,Meta 发布了 2025 年 Q4 财报,业绩超出预期。在财报电话会上,Zuckerberg 做出了一个惊人的预测:Meta 在 2026 年的 AI 新支出将高达 1350 亿美元。(来源: Fortune, 2026-01-28) 这个数字即使放在全球科技巨头的资本支出历史中,也属于前所未有的量级。

与此同时,Meta 在 2025 年的整体表现为这一激进投资提供了底气。据报道,Meta 在 2025 年实现了 22% 的营收增长,并宣布了重大的 AI 超级智能推进计划。(来源: Kalkine, 2026) Phemex 的分析则引用了 Meta 2025 年约 2010 亿美元的营收数据,以及 1250 亿美元的 AI 投资规模。(来源: Phemex, 2026)

这些数字构成了一幅清晰的画面:Meta 正在进行科技史上最大规模的 AI 资本部署之一。Zuckerberg 不仅仅是在”尝试 AI”,他是在将整个公司的未来押注在 AI 上——从基础设施到产品到组织文化,全方位重塑。

从战略口号到绩效指标

巨额投资只是硬件层面。在组织层面,Meta 的 AI 推进同样激进。

2026 年 3 月,Business Insider 获取了 Meta 的内部文档,揭示了公司如何将 AI 工具采用纳入员工的目标设定体系。报道显示,Meta 正在系统性地追踪和量化管理员工的 AI 使用程度。(来源: Business Insider, 2026-03) 这意味着,对于 Meta 员工来说,使用 AI 不再是一个可选项,而是一个与绩效评估直接挂钩的硬性要求。

2026 年 4 月的另一篇 Business Insider 报道进一步描述了 Meta 内部正在发生的变化:AI 驱动的生产力变革已经深入公司运营的各个层面,AI 正在重塑 Meta 内部的工作方式。(来源: Business Insider, 2026-04)

将这些信息拼接在一起,Meta 的 AI 全员化战略可以被概括为一个三层结构:

  1. 基础设施层:1350 亿美元级别的资本支出,建设 AI 计算基础设施
  2. 工具层:开发和部署内部 AI 工具,覆盖代码生成、文档处理、会议总结等工作场景
  3. 组织层:将 AI 使用纳入绩效目标,通过制度激励(或压力)确保全员采用

这个三层结构在逻辑上是自洽的:投资建设能力 → 开发工具 → 确保使用。但排行榜事件暴露了第三层的一个致命漏洞:当你用量化指标来驱动 AI 采用时,你得到的可能不是”更好的 AI 使用”,而是”更多的 AI 使用”——这两者之间的差异,就是表演性采用与真实性使用之间的鸿沟。

1350 亿美元买的是什么?

让我们做一个思想实验。Meta 计划在 2026 年投入高达 1350 亿美元用于 AI。这笔钱的绝大部分将流向数据中心建设、GPU 采购、电力基础设施和模型训练。但在组织层面,Meta 也在投入大量管理资源来推动 AI 采用——制定绩效目标、开发内部工具、培训员工、建立使用追踪系统。

当这种自上而下的推动遇到排行榜这样的自下而上的量化工具时,一种危险的正反馈循环就形成了:管理层说”多用 AI”→ 员工用排行榜证明自己在”多用 AI” → 管理层看到使用数据上升,认为战略在奏效 → 进一步加大推动力度。

在这个循环中,没有人在问一个根本性的问题:这些 token 消耗产生了什么价值?


第三章:表演性采用的陷阱——当 AI 使用量成为 KPI

Goodhart 定律的 AI 版本

经济学中有一条著名的 Goodhart 定律:”当一个指标成为目标时,它就不再是一个好的指标。”(When a measure becomes a target, it ceases to be a good measure.)Meta 的 AI 排行榜是 Goodhart 定律在企业 AI 采用领域的完美案例。

Token 消耗量作为一个观察指标是有价值的——它可以帮助基础设施团队预测计算需求,帮助产品团队了解哪些 AI 功能被使用最多。但当 token 消耗量从观察指标变成竞争目标时,它就开始扭曲行为。

想象一个 Meta 工程师面对排行榜时的理性计算:

  • 高价值 AI 使用:花 5 分钟精心构造一个 prompt,让 AI 生成一段高质量的代码审查意见。消耗 token:约 2000。
  • 低价值 AI 使用:花 5 分钟与 AI 进行一段漫无目的的对话,让它反复改写同一段文本。消耗 token:约 15000。

如果你的目标是排行榜排名,理性选择是后者。如果你的目标是工作产出,理性选择是前者。排行榜系统性地奖励了错误的行为。

AI Slop:量化驱动的质量退化

Forbes 在 2026 年 4 月 9 日发表了一篇文章,标题直截了当:《AI Slop 是真实存在的。你的采用策略可能正在让它变得更糟》。(来源: Forbes, 2026-04-09) 文章的核心论点是:企业在推动 AI 采用时,如果过度关注使用量而忽视使用质量,最终产出的将是大量低质量的 AI 生成内容——即”AI slop”。

“Slop”这个词在 AI 语境中特指那些由 AI 生成但缺乏实质价值的内容:冗长但空洞的文档、格式完美但逻辑混乱的报告、语法正确但见解为零的分析。当员工被激励去”多用 AI”而非”用好 AI”时,AI slop 就成为必然产物。

这里存在一个反直觉的悖论:AI 采用率越高,组织生产力可能反而越低。原因有三:

  1. 注意力转移:员工花时间与 AI 交互来刷使用量,而不是花时间思考真正的问题。
  2. 质量稀释:AI 生成的大量中等质量内容淹没了人类产出的高质量内容,增加了组织内部的信息噪音。
  3. 技能退化:当员工习惯于让 AI 代替思考时,他们自身的判断力和专业技能可能逐渐萎缩。

Meta 将 AI 使用纳入绩效目标的做法(来源: Business Insider, 2026-03),在这个框架下就显得格外值得审视。绩效目标是企业最强大的行为塑造工具之一。当你告诉一个员工”你的 AI 使用程度会影响你的绩效评估”时,你实际上是在说”不管有没有用,先用起来再说”。

谁在 tokenmaxxing?

Tokenmaxxing 现象的分布并不均匀。根据对硅谷 AI 使用文化的观察(来源: Business Insider, 2026-04; Chosun English, 2026-04-08),最积极参与 token 竞赛的群体通常具有以下特征:

  • 初级到中级工程师:他们的工作内容(代码生成、文档编写、bug 修复)最容易被 AI 辅助,同时他们在组织中的位置也最需要通过可量化的信号来证明自己的价值。
  • 非技术岗位的”AI 积极分子”:市场、运营、HR 等职能部门的员工,他们可能并不真正需要大量 AI 交互,但在”全员 AI 化”的组织压力下,他们需要展示自己”跟上了时代”。
  • 新入职员工:在一个将 AI 使用纳入绩效目标的公司,新员工有最强的动机去快速积累 AI 使用数据。

相比之下,最不可能出现在排行榜顶部的群体是:高级管理层、资深技术专家(他们的核心价值在于判断力而非产出量)、以及——正如排行榜所揭示的——CEO 本人。

这种分布模式本身就是一个重要信号:AI 使用量与组织影响力之间可能存在负相关关系。在组织中拥有最大决策权的人,恰恰是最少使用 AI 的人。这不是巧合,而是结构性的。


第四章:CEO 悖论——为什么最推动 AI 的人最少用 AI?

决策层的工作性质假说

Zuckerberg 未进入 AI token 使用排行榜前 250 名(来源: Yahoo Finance, 2026-04),这个数据点可以有多种解读。最简单的解读是:CEO 很忙,没时间刷 AI。但这个解读过于表面。一个更深层的问题是:CEO 的工作性质是否本质上不适合当前 AI 工具的能力边界?

让我们分析一下一位科技巨头 CEO 的典型工作内容:

  1. 战略决策:决定公司未来 3-5 年的方向,比如”是否将 1350 亿美元投入 AI”。这类决策涉及对不确定性的判断、对竞争格局的直觉、对组织能力的评估——这些都是当前 LLM 最薄弱的领域。LLM 擅长总结已知信息,但不擅长在信息不完整时做出高风险判断。

  2. 人际博弈:与董事会成员、投资者、监管机构、合作伙伴的互动。这些交互高度依赖语境、关系历史、非语言信号和政治敏感度——AI 在这些维度上几乎无法提供有意义的辅助。

  3. 组织政治:管理高管团队之间的权力平衡、处理内部冲突、决定关键人事任命。这些工作的核心是对”人”的判断,而非对”信息”的处理。

  4. 公共叙事:塑造公司形象、应对媒体危机、在财报电话会上传递信心。这些工作需要的是个人魅力和叙事能力,AI 可以帮助起草讲稿,但无法替代 CEO 本人的判断力和表达风格。

在这四个维度上,当前的 AI 工具能够提供的价值密度远低于它们在代码生成、文档处理、数据分析等任务上的价值密度。换言之,Zuckerberg 不怎么用 AI,可能不是因为他不了解 AI,而是因为他的工作恰好处于当前 AI 能力的盲区

认知鸿沟假说

但还有另一种更令人不安的解读:Zuckerberg 的低 AI 使用率可能反映了一种认知鸿沟——制定 AI 战略的人与执行 AI 战略的人之间,对 AI 实际能力和局限性的理解存在系统性差异。

这种鸿沟的表现形式是:

  • 高管层看到的 AI:精心准备的产品演示、经过筛选的成功案例、乐观的内部报告。在这个视角下,AI 是一种变革性的力量,值得 1350 亿美元的投入。
  • 一线员工体验的 AI:时而惊艳时而离谱的输出、需要反复修改的生成内容、在特定任务上节省时间但在其他任务上浪费时间的工具。在这个视角下,AI 是一种有用但远未成熟的辅助工具。

如果 Zuckerberg 本人很少使用 AI 工具,他对 AI 实际能力的理解就主要来自间接信息——产品团队的汇报、外部分析师的报告、竞争对手的动态。这些间接信息天然带有乐观偏差(没有人会在向 CEO 汇报时强调 AI 工具的局限性)。

这就产生了一个危险的反馈循环:CEO 基于间接信息做出激进的 AI 投资决策 → 组织被要求全面采用 AI → 员工被迫使用 AI 并产出积极的使用数据 → 这些数据进一步强化了 CEO 的信念 → 更多投资、更激进的采用目标。

在这个循环中,真实的用户体验被系统性地过滤掉了。排行榜的存在本来可以提供一个真实信号——它至少诚实地显示了谁在用、谁没在用。但排行榜被关闭了。

两种假说的综合

我认为真相是两种假说的叠加。Zuckerberg 的低 AI 使用率既反映了 CEO 工作性质与当前 AI 能力之间的错配,也反映了决策层与执行层之间的认知鸿沟。而且,这两个因素是相互强化的:正因为 CEO 的工作不太需要当前的 AI 工具,CEO 才更容易对 AI 的实际能力产生过于乐观的估计——因为他没有在日常使用中遭遇 AI 的局限性。

这是一个在企业 AI 转型中被严重低估的风险:最有权力决定 AI 投资规模的人,恰恰是最缺乏 AI 使用第一手经验的人


第五章:超越 Meta——企业 AI 文化的普遍性困境

表演性采用不是 Meta 的专利

Meta 的排行榜事件之所以重要,不是因为它揭示了 Meta 独有的问题,而是因为它将一个普遍性的企业困境具象化了。

在 2025-2026 年的企业 AI 采用浪潮中,几乎每一家大型企业都在经历类似的张力。Forbes 的报道指出,AI slop 问题的根源在于企业的采用策略本身——当企业将 AI 使用量作为转型成功的衡量标准时,它们实际上在激励低质量的 AI 交互。(来源: Forbes, 2026-04-09)

这种模式在不同行业有不同的表现形式:

  • 咨询公司:顾问被要求在每个项目中使用 AI 工具,导致大量 AI 生成的”分析”被塞进本来就冗长的 PPT 中,增加了页数但没有增加洞察。
  • 金融机构:分析师被鼓励使用 AI 辅助研究,但 AI 生成的研究报告往往缺乏真正的独立判断,沦为公开信息的重新排列组合。
  • 科技公司:工程师被要求使用 AI 编程助手,但在复杂的系统设计和架构决策上,AI 的建议往往需要大量人工修正,净效率提升可能远低于管理层的预期。

Meta 的独特之处在于,它同时是 AI 的开发者和使用者。Meta 不仅在内部推动 AI 采用,还在向外部销售 AI 产品和服务。这意味着 Meta 内部的 AI 采用数据不仅是一个组织管理问题,还是一个产品可信度问题:如果 Meta 自己的 CEO 都不怎么用 AI,外部客户为什么要相信 Meta 的 AI 产品?

量化陷阱的深层结构

企业对 AI 使用的量化执念,根源在于管理学中一个长期存在的偏见:可量化的东西更容易被管理,因此管理者倾向于量化一切。Token 消耗量、AI 工具登录频率、AI 辅助完成的任务数量——这些指标易于收集、易于比较、易于汇报。

但 AI 的真正价值往往体现在不可量化的维度上:

  • 决策质量的提升:AI 帮助一个产品经理发现了一个之前被忽视的用户需求,这个发现可能价值数百万美元,但它不会反映在 token 消耗量中。
  • 创造性突破:AI 帮助一个研究员在两个看似无关的领域之间建立了联系,这种洞察的价值无法用 token 来衡量。
  • 风险规避:AI 帮助一个合规团队发现了一个潜在的监管风险,避免了一次可能的巨额罚款——这种价值同样不会出现在使用排行榜上。

Meta 的排行榜只能捕捉 AI 使用的”量”,而完全忽视了”质”。更危险的是,当”量”成为竞争目标时,它会主动排挤”质”——因为高质量的 AI 使用往往意味着更少但更精准的交互,而非更多但更随意的交互。

对立视角:排行榜的辩护

公平起见,也有人为 AI 使用排行榜和量化驱动的采用策略辩护。他们的论点包括:

  1. 冷启动问题:在 AI 采用的早期阶段,最大的障碍是惯性——人们习惯了旧的工作方式,不愿意尝试新工具。量化指标和排行榜可以打破这种惯性,至少让人们开始使用 AI。使用质量可以在后期优化,但前提是先有使用量。

  2. 学习曲线效应:大量的 AI 交互——即使其中很多是低价值的——也有助于用户积累经验、发展 prompt 工程技能、理解 AI 的能力边界。Tokenmaxxing 可能是学习过程中的一个必经阶段。

  3. 数据飞轮:更多的内部 AI 使用产生更多的交互数据,这些数据可以用来微调内部模型、改进 AI 工具、优化工作流程。从这个角度看,即使是低质量的 AI 交互也有数据价值。

这些论点有一定道理,但它们忽略了一个关键问题:量化驱动的采用策略一旦建立,就很难转向质量导向。当组织文化已经将”用了多少 AI”等同于”多么重视 AI”时,任何试图降低使用量、提高使用质量的努力都会被解读为”AI 退潮”的信号。Meta 关闭排行榜的速度本身就说明了这一点——他们选择的不是改进指标(比如加入使用质量评估),而是直接消灭指标。


第六章:大多数人没看到的——AI 价值密度的层级分化

被忽视的洞察

排行榜事件中,大多数人看到的是一个尴尬的八卦:CEO 不用自己推的产品。但大多数人没有看到的是一个更深层的结构性信号:AI 对不同组织层级的价值密度存在巨大差异,而当前的企业 AI 战略几乎完全忽视了这种差异

我将这种差异称为”AI 价值密度曲线”。它大致呈倒 U 型:

  • 初级员工:AI 价值密度中等。AI 可以帮助他们完成重复性任务(格式化文档、编写模板代码、翻译内容),但他们的工作中也包含大量需要人类判断的学习和成长机会,过度依赖 AI 可能阻碍他们的专业发展。
  • 中级专业人员:AI 价值密度最高。他们有足够的专业知识来评估 AI 输出的质量,同时他们的工作中包含大量可以被 AI 加速的任务(数据分析、代码审查、文档起草、研究综合)。这是 AI 工具的”甜蜜点”。
  • 高级管理层/C-suite:AI 价值密度最低。他们的核心工作——战略判断、人际关系、组织政治——恰好处于当前 AI 能力的盲区。

如果 Meta 的排行榜没有被关闭,我们很可能会看到这条倒 U 型曲线的实证数据:中级工程师和产品经理占据排行榜顶部,初级员工和高级管理层分布在两端。

这对企业 AI 战略意味着什么?

当前大多数企业的 AI 战略采用的是”一刀切”模式:全员采用、统一目标、统一指标。Meta 将 AI 使用纳入所有员工的绩效目标(来源: Business Insider, 2026-03)就是这种模式的典型体现。

但 AI 价值密度曲线告诉我们,这种一刀切模式是低效甚至有害的:

  • 对于价值密度最高的中级专业人员,他们可能不需要绩效目标的推动就会主动使用 AI——因为 AI 确实能帮助他们更好地完成工作。
  • 对于价值密度较低的高级管理层,强制他们使用 AI 可能产生反效果——要么他们为了完成指标而进行低质量的 AI 交互(贡献 AI slop),要么他们将 AI 交互委托给助理(数据失真)。
  • 对于初级员工,不加区分地鼓励 AI 使用可能剥夺了他们的学习机会——当一个初级工程师让 AI 写了所有的代码,他自己的编程能力如何成长?

一个更明智的企业 AI 战略应该是差异化的:识别组织中 AI 价值密度最高的角色和任务,集中资源优化这些场景的 AI 体验,同时对其他场景保持灵活和务实的态度。

Zuckerberg 的排名是最诚实的信号

这就是为什么我认为 Zuckerberg 未进前 250 名这个数据点,可能是 Meta 内部 AI 使用状况中最诚实的信号。它没有被绩效目标扭曲,没有被排行榜竞争驱动,它只是简单地反映了一个事实:对于 Zuckerberg 的工作来说,当前的 AI 工具还没有提供足够的价值来让他成为一个重度用户。

这个信号的价值在于,它为所有企业的 AI 决策者提供了一面镜子:你自己用 AI 吗?用来做什么?它真的帮助你做出了更好的决策吗?

如果答案是”不太用”或”主要是为了展示给团队看”,那么你推动的全员 AI 化战略可能需要重新审视。不是因为 AI 没有价值,而是因为你可能正在用错误的方式衡量和推动 AI 的价值。


结语:从”用了多少”到”用对了没有”

Meta 关闭 AI 使用排行榜,表面上是一个公关事件的善后处理。但它实际上标志着企业 AI 文化演进中一个关键转折点的到来——或者说,一个关键转折点的错失。

排行榜暴露了一个真相:在 Meta 这样一家计划投入 1350 亿美元推动 AI 的公司里(来源: Fortune, 2026-01-28),AI 使用的分布是高度不均匀的,而且这种不均匀性与组织层级直接相关。关闭排行榜消灭了这个真相的载体,但没有消灭真相本身。

Tokenmaxxing 作为一种文化现象(来源: Business Insider, 2026-04),是企业 AI 采用从”工具理性”滑向”表演竞赛”的症状。当 AI 使用量成为 KPI,AI slop 就成为必然产物(来源: Forbes, 2026-04-09)。当排行榜成为竞争场,真正的生产力提升就让位于可见性管理。

但这并不意味着企业应该放弃推动 AI 采用。AI 确实正在重塑工作方式(来源: Business Insider, 2026-04),这一趋势不会因为排行榜的关闭而逆转。问题不在于”要不要推动 AI 采用”,而在于”用什么方式推动”。

真正的 AI 原生组织应该具备三个特征

  1. 差异化的采用策略:根据不同角色和任务的 AI 价值密度,制定不同的采用目标和评估标准。不是所有人都需要成为 AI 重度用户,也不是所有任务都适合 AI 辅助。

  2. 质量导向的评估体系:从衡量”用了多少 AI”转向衡量”AI 帮助产出了什么”。这需要更复杂的评估框架——比如追踪 AI 辅助项目的最终业务成果,而非简单的 token 消耗量。

  3. 自上而下的真实性:如果 CEO 不怎么用 AI,那就坦诚地承认这一点,并解释为什么——而不是关闭排行榜来掩盖这个事实。真正的领导力不是假装自己是 AI 的最大用户,而是诚实地评估 AI 在不同场景下的价值和局限。

Zuckerberg 未进前 250 名,这个数据点不应该被视为一个需要被隐藏的尴尬,而应该被视为一个需要被理解的信号。它告诉我们:AI 的价值不是均匀分布的,企业 AI 战略也不应该是均匀施力的

在 1350 亿美元的 AI 投资背后,最重要的问题不是”我们用了多少 AI”,而是”我们用对了没有”。Meta 关闭了那块能够部分回答这个问题的仪表盘。这不是一个好兆头。

对于正在推行 AI 转型的企业决策者,这里有一个简单的测试:如果你的公司也建一个 AI 使用排行榜,你自己会排在哪里?你对这个排名感到舒适吗?如果不舒适,是因为你用得太少,还是因为排行榜本身就是一个错误的衡量方式?

答案的不同,决定了你的 AI 战略是在创造真实的生产力变革,还是在制造一场精心编排的表演。


参考资料

  1. A Meta employee created a dashboard so coworkers can compete to be the company’s No. 1 AI token user—and Zuckerberg doesn’t even rank in the top 250 — Yahoo Finance, 2026-04
  2. Meta Q4 earnings beat as Zuckerberg predicts up to $135 billion in new AI spending in 2026 — Fortune, 2026-01-28
  3. ‘Tokenmaxxing’ Is the New Silicon Valley AI Debate — Business Insider, 2026-04
  4. AI Slop Is Real. Your Adoption Strategy May Be Making It Worse. — Forbes / Sanjay Srivastava, 2026-04-09
  5. Meta’s AI push is reshaping how work gets done inside the company — Business Insider, 2026-04
  6. Meta is pushing employees to use AI, and this doc shows how much — Business Insider, 2026-03
  7. Meta Platforms Reports 22% Revenue Growth in 2025, Announces Major AI Superintelligence Push — Kalkine, 2026
  8. Silicon Valley’s AI Token Competition Culture — The Chosun Daily English, 2026-04-08

主题分类:企业AI落地