Meta关闭AI使用排行榜:Zuckerberg未进前250名,企业AI文化的表演性与真实性鸿沟
一个内部游戏的终结,揭示了科技行业最难回答的问题:当CEO公开宣称AI是公司最重要的赌注,但他自己却不在公司前250名的AI使用者中——这究竟意味着什么?
2026年4月9日,Meta一个叫做”Claudeonomics”的内部仪表板消失了。这个由员工自发创建的排行榜,追踪Meta超过85,000名员工的AI使用情况,显示谁是公司最活跃的AI token使用者,并授予”Token Legend”和”Cache Wizard”等头衔。
排行榜的关闭本身不值得大书特书。但随着The Information的报道曝光了一个细节——CEO Mark Zuckerberg和CTO Andrew Bosworth均不在前250名——这个看似普通的企业内部管理决策,突然变成了一面照出科技公司AI文化内在矛盾的镜子。
第一章:Claudeonomics的诞生与消亡
故事的开始是一个小小的企业内部游戏。
某位Meta员工,利用公司的内部开发平台Nest,创建了一个名为”Claudeonomics”的仪表板(名字取自Anthropic的AI模型Claude)。这个仪表板通过追踪员工使用AI产品产生的token数量,建立了一个实时的使用量排行榜。
排行榜的设计很聪明:不只是展示数字,还给予不同使用量级的员工特定称号。使用量最高的被称为”Token Legend”(token传奇),中等级别的是”Cache Wizard”(缓存巫师)……这些游戏化的设计,使得追踪AI使用量从一个枯燥的指标监控变成了一种带有竞技色彩的社交行为。
对于高度竞争性的科技工作文化来说,这个排行榜击中了一个精准的心理需求:让AI的高度使用成为一种可见的社会身份标志。在”越多使用AI越有生产力”这个信念日益主导的硅谷语境中,”Token Legend”的标题,比许多正式奖项都更能满足某种身份展示的欲望。
数据规模显示这个游戏确实有效:在30天的统计周期内,Meta全体员工产生的token总量超过60万亿——这是一个极其惊人的数字。单个最高排名用户,月均使用量达到2,810亿token。按照Claude Opus 4.6的定价(每百万token 5美元)计算,这名顶级用户单月的AI使用成本超过140万美元。
然后,The Information发布了关于Claudeonomics的报道。就在报道发出两天后,排行榜关闭了。原因说明写道:”由于本仪表板的数据被分享到外部,我们决定暂时关闭Claudeonomics。”
Meta的官方回应则是:”员工自主决定关闭了该仪表板;Meta并未要求此举。”
第二章:Zuckerberg不在前250名——这个事实的多层解读
The Information报道中的关键细节:Mark Zuckerberg不在前250名AI使用者中。CTO Andrew Bosworth同样不在名单上。
这个事实可以有多种解读,而不同的解读通向截然不同的结论:
解读A:token使用量不等于AI使用量,更不等于AI影响力。
最有利于Zuckerberg的解读是:token使用量是一个极其原始的指标。写代码的工程师会产生大量token;做战略思考和决策的高管,即使每天深度使用AI,产生的token量也可能远低于前250名。Zuckerberg用AI做什么?也许是阅读分析报告的总结,也许是审阅策略文档的摘要——这些使用行为的token消耗量,与那些让AI代理自主运行几个小时、产生数十亿token的工程师完全不可比。
解读B:言行不一的领导力信号。
但还有一种更有挑战性的解读:如果Zuckerberg真的相信AI是公司最重要的技术赌注,如果他真的认为AI使用是员工核心绩效指标之一,那为什么他自己的使用量连前250名都没进?
这不只是个人行为问题,而是领导力信号问题。当员工看到CEO不在AI使用排行榜前列时,他们可能会从这个信号中读出:AI使用对组织的真实重要程度,也许并没有公开叙事中声称的那么高。
这是企业AI推广中一个经典的”说/做一致性”(walk the talk)困境。企业高层越是大声宣扬AI的重要性,同时自身的行为与这一宣言越是脱节,员工的认知失调和执行摩擦就越大。
解读C:排行榜被关闭的时间节点值得关注。
排行榜在The Information的报道曝光后两天就被关闭。这个时间节点,很难不让人联想到:Meta是否是因为担心”CEO不在前250名”这个细节被更广泛地传播和解读,才决定关闭这个数据来源?
当然,Meta的官方声明否认了这一点,坚持说是员工自主决定。但无论如何,关闭的时机创造了一个叙事上的不透明区域:我们永远不知道,如果排行榜继续存在,会揭露什么其他关于公司AI使用文化的信息。
第三章:Tokenmaxxing文化——硅谷正在形成一种新的生产力哲学
Claudeonomics事件,映射的是硅谷正在形成的一种新的生产力信仰:tokenmaxxing。
这个词的概念是:最大化AI token使用量,以此作为生产力和工作深度的代理指标。逻辑链条是:使用的token越多,说明你在越多、越复杂的任务上利用了AI;token使用量越高,你的工作输出杠杆效应越大;因此,token使用量可以作为工作效率的一个可量化替代指标。
这个逻辑不是无中生有的。NVIDIA CEO Jensen Huang在2026年3月的GTC大会上明确表示,他将给工程师约50%薪资等值的token预算,理由是这会让他们的产出扩大10倍。Huang还说:”如果我付一个工程师50万美元年薪,但他们没有使用至少25万美元的token,我会深感担忧。”Meta CTO Bosworth也说,他最好的工程师的token消耗量相当于他的薪水,”但他的产出是同等成本工程师的5到10倍”。
这些言论,在技术从业者中形成了强大的叙事压力:token使用量不够多=你没有充分利用AI=你将被那些token使用量更高的同事远远甩开。Claudeonomics排行榜,不过是把这种无形压力变成了可见的竞技场。
但这个逻辑有一个本质性的漏洞:token使用量是手段,不是目标。让AI代理无意义地生成token以提高排名,不产生任何实际价值;真正有价值的AI应用,可能正好是那些高效、精准、token消耗适度的使用方式。用token消耗量作为核心指标,很容易激励一种表演性的AI使用,而不是真正提升工作质量的AI应用。
这个内在矛盾,是Claudeonomics被关闭后,没有被公开讨论但值得被严肃对待的问题。
第四章:企业AI推广的表演性机制
Claudeonomics事件,是企业AI推广中一个更广泛现象的缩影:AI使用的表演化趋势。
当一家公司宣布”AI使用将成为绩效评估的核心标准”时,理性的员工会做什么?他们会最大化那些被评估的指标——即使这意味着在某些情况下,使用AI的目的不是提高工作质量,而是让AI使用指标看起来更好。
这是一个经典的Goodhart定律(古德哈特定律)陷阱:当一个度量标准成为目标时,它就不再是一个好的度量标准。
在企业AI推广的语境中,这个问题的后果很具体:
- 员工可能用AI自动化地完成大量本不需要AI的任务,只是为了增加AI使用记录
- 团队可能把原本用电子表格完成的简单分析,转交给AI处理,仅仅是为了制造”我们在用AI”的数据痕迹
- 汇报材料可能用AI重写一遍,即使原始版本已经足够好,只是为了证明AI在工作流中有参与
这种表演性的AI使用,不只是浪费:它会通过虚报的采用率,给管理层带来关于AI实际融合深度的错误反馈,从而导致更糟糕的战略决策。
Meta的困境不是个例。每一家宣称”AI是核心战略”的科技公司,都面临同样的机制挑战:如何设计一套激励体系,让员工在真正需要AI的地方深度使用,而不是把大量精力用在表演性的指标优化上。
第五章:第三层洞察——谁在用AI不应该是个秘密
Meta选择关闭Claudeonomics,在某种意义上,是选择了不透明来处理一个令人尴尬的事实。
但这个选择本身,揭示了一个更深层的问题:在这个AI无处不在的时代,企业内部的AI使用透明度,究竟应该处于什么水平?
如果AI使用是企业竞争力的核心来源,如果AI采用率代表了组织转型的深度,那么企业内部AI使用数据,就具有类似于财务绩效数据的战略重要性。拥有这类数据,并进行清醒的自我评估,对于识别哪些部门真正在深度使用AI,哪些部门只是表面文章,至关重要。
Meta关闭Claudeonomics,消灭了一个粗糙但真实的数据来源。这个决定,可能是出于员工隐私的考量,可能是出于对排名公开竞争带来的文化压力的担忧,也可能确实是出于对”CEO不在前250名”这个细节被广泛传播的担忧。
但无论原因是什么,这个决定的效果是:Meta内部关于真实AI采用状况的数据窗口,因为对外透明而被关闭了。
这个结果,值得每一家声称把AI放在战略核心的公司认真反思:当外部压力迫使你隐藏内部的真实数据,你的AI战略叙事还有多少可信度?
说到底,CEO不在前250名不是一个羞耻的数字——它可能完全合理,取决于使用的具体方式。真正值得追问的,不是”Zuckerberg用了多少token”,而是”Meta是否有清醒的机制来评估AI在组织中真正创造了多少价值”——而不只是创造了多少token消耗。
这两个问题,有着截然不同的答案框架,而第二个问题,才是真正重要的那一个。
补充思考:健康的企业AI文化应该是什么样的
Claudeonomics事件引发的讨论,最终指向一个更根本性的问题:企业应该如何建立一种真正健康的AI使用文化,而不只是AI使用指标文化?
从管理实践的角度,以下几个维度是值得认真对待的:
第一,测量的是结果而不只是行为。 token使用量是行为指标;AI辅助完成的高质量工作成果,才是真正需要追踪的结果指标。理想的评估框架,应该问的是”AI帮助你完成了哪些原本无法完成或完成得更差的工作?”而不是”你用了多少token?”。建立结果导向的评估,远比构建使用量排行榜更难,但也更有意义。
第二,领导者以身作则,但方式要对。 如果CEO和高管要以AI使用率来鼓励员工,最有效的方式不是宣称”AI是我们最重要的赌注”,而是具体地、定期地分享AI如何改变了他们自己的工作方式——具体的场景、具体的效率提升、具体的决策质量改进。这种以身作则,比token排名更有感染力,也更能推动真实的文化变革。
第三,允许批判性反馈的存在。 一个健康的AI文化,不只有倡导者,也应该有批评者——那些能够清醒地指出AI在特定场景下的局限性、成本和风险的声音。当一家公司的内部文化让质疑AI的声音变得不安全,就会产生系统性的信息失真,最终伤害决策质量。
第四,区分AI使用的深度和广度。 有些团队可以在某几个核心场景(例如代码审查、法律文档分析)把AI用得极其深入,彻底改变工作流程;有些团队可能在很多场景浅层使用AI,但没有一个地方真正深度整合。这两种模式的token消耗量可能差不多,但其实际业务影响却可能天壤之别。评估框架需要能够区分这两种模式。
Meta关闭Claudeonomics排行榜,消除了一个粗糙但真实的企业AI文化观察窗口。这个窗口消失了,但它照出的问题还在:当一家科技公司最响亮的AI倡导者,不在自己公司的AI使用排行榜前列,这说明AI文化的建立,远比AI战略的宣告复杂得多。
这不只是Meta的挑战。这是每一家声称将AI放在战略核心的企业,都需要认真面对的根本性组织挑战。
关于token经济的更深层反思
在结束本文之前,有必要对”tokenmaxxing”哲学本身做一个更批判性的审视。
硅谷正在形成的这种信仰——越多使用AI越有生产力,token消耗量是工作深度的代理指标——是建立在一个未经证实的假设之上的:AI的价值是线性的,使用越多价值越高。
但这个假设在很多情况下是错误的。高质量的判断性思考,往往依赖于人类的主体性判断:知道什么时候不依赖AI,什么时候要质疑AI的输出,什么时候需要人类的直觉和经验来超越AI的局限。一个每天产生数十亿token的工程师,如果他所有的判断都依赖AI,他实际上已经把自己的认知外包给了一个可能不可靠的系统。
真正的高价值AI使用,是人类智识与AI能力的有效结合,而不是人类智识的AI替代。这两者在短期内可能产生相似的输出(甚至前者token消耗更少),但在处理新问题、面对边缘案例、做出高风险决策时,其差异将显露无疑。
Jensen Huang和Bosworth关于token预算的声明,是针对特定角色(工程师,大量重复性编码任务)有一定合理性的观察,但它们被过度推广为一种普适的工作哲学——而这种过度推广,是危险的。
不是每个角色的工作价值都能用token消耗量来衡量。策略性决策、创意思考、人际关系建立、复杂谈判——这些工作的AI辅助,往往恰恰需要的是少而精的高质量AI交互,而不是无限量的token泵送。
Claudeonomics排行榜的关闭,恰好给了我们一个机会,从这场tokenmaxxing文化浪潮中退后一步,重新审视:我们到底要用AI来实现什么,以及我们是否正在用正确的方式来评估这个目标的实现程度。
这个问题,比Zuckerberg的排名,重要得多。
跨文化视角:中国企业的AI文化有什么不同
一个有趣的比较维度是:中国科技公司的AI使用文化,是否也在经历类似的”表演性AI”困境?
从表面上看,中国顶级科技企业(字节跳动、阿里、腾讯、百度、华为)对AI的内部推广力度,并不亚于硅谷同行。几乎每家公司都在内部大力推广AI工具,要求员工在工作流程中使用AI助手,并将AI应用能力纳入绩效评估体系。
但有几个结构性差异值得注意:
其一,中国企业更多使用自研AI工具,而非依赖第三方API。这意味着这些公司对员工AI使用数据拥有直接的访问和分析能力——而不需要依赖类似Claudeonomics这样的第三方仪表板。这种数据收集的直接性,既意味着更精确的使用数据,也意味着更强的监控能力,以及随之而来的隐私和心理压力问题。
其二,中国企业的组织文化普遍对量化绩效指标更加直接和透明。在这种文化背景下,token使用量作为绩效代理指标的逻辑,可能更容易被直接接受,而不需要像Meta那样依靠员工自发的游戏化机制来推动。但这也意味着表演性AI使用的激励机制可能更强,质疑AI指标合理性的空间更小。
其三,从实际应用深度来看,字节跳动在内容推荐和广告系统中的AI应用,阿里在电商和供应链中的AI部署,都已经积累了超过十年的大规模AI应用经验。对于这些公司来说,”AI文化”不是一个需要从头建立的东西,而是已经融入业务流程的历史沉淀。这种沉淀,使得AI使用的价值评估有更成熟的历史基准,而不完全依赖于新兴的token消耗指标。
这个跨文化视角说明,AI文化的建立没有放之四海皆准的单一路径。企业的历史、组织文化基因和所处的技术阶段,都会影响AI文化的形态。Claudeonomics是一个美国科技公司AI文化困境的典型案例,但不代表所有企业都将面临完全相同的挑战——也不代表中国企业在这个领域就自动免疫。
真正健康的AI文化,无论在哪个国家,无论面对什么文化背景,核心都需要解决同一个问题:如何让AI使用与真实的工作价值创造保持紧密关联,而不是变成一场以指标优化为目的的表演游戏。Meta的Claudeonomics事件,是一个值得全球科技从业者共同学习的真实案例。
参考资料
- Fortune, “A Meta employee created a dashboard so coworkers can compete to be the company’s No. 1 AI token user,” 2026-04-09 — https://fortune.com/2026/04/09/meta-killed-employee-ai-token-dashboard/
- The Information, “Meta Employees Vie for AI Token ‘Legend’ Status,” 2026-04-07
- Fortune, “Jensen Huang AI infrastructure buildout $1 trillion,” 2026-03-17 — https://fortune.com/2026/03/17/jensen-huang-ai-infrastructure-buildout-1-trillion-dollars/
- New York Times, “Tokenmaxxing AI agents,” 2026-03-20 — https://www.nytimes.com/2026/03/20/technology/tokenmaxxing-ai-agents.html