2026 年 3 月 24 日,一个新造的英文词登上了科技圈的讨论热榜——”Tokenmaxxing”。这个词由”token”(大语言模型处理文本的基本单位)和”maxxing”(网络俚语,意为极端最大化某项指标)拼合而成,精准地描述了一种正在科技行业蔓延的新型数字出勤主义:用消耗了多少人工智能算力来证明自己在努力工作。

来自 Remote Work Europe 的深度报道揭示了这种趋势的具体面貌:OpenAI 的工程团队在一周内处理了 2100 亿个 token;部分 Anthropic 企业用户的月度账单高达 15 万美元;Shopify 的首席执行官已经将人工智能工具的使用情况纳入了员工的绩效考核体系;NVIDIA 的黄仁勋甚至提出了给工程师设定”token 预算”的概念——用得越多,说明工作越投入。

但最令人警醒的数据来自哈佛商业评论的一项调查:60% 的企业高管承认他们因为”预期人工智能能力”而做出了裁员决定,但其中只有 2% 是基于实际的人工智能部署效果。而 Sam Altman 本人也在公开场合承认存在所谓的”人工智能洗裁员”现象——即企业以人工智能转型为名进行裁员,实际上人工智能工具并未真正替代被裁岗位的工作。

一个历史回响:从工厂计件到数字计件

理解 Tokenmaxxing 的本质,需要将它放在工业社会劳动管理的长线历史中来审视。

20 世纪初,弗雷德里克·泰勒的”科学管理”理论开创了”用可量化指标衡量工人产出”的管理范式。流水线上的工人被计算每小时完成多少个标准化操作,这些数字直接决定了他们的薪酬和去留。这种”计件工资制”极大提升了制造业的效率,但也带来了深远的负面影响——工人被简化为产出数字的附属品,工作的质量和创造性被系统性地忽视。

一个世纪后的今天,Tokenmaxxing 正在知识工作领域重演同样的剧本。当 Shopify 把人工智能使用量纳入绩效考核时,它在做的事情本质上和泰勒在工厂里安装计件器一模一样——用一个看似客观的数量指标来衡量一种难以直接量化的工作投入。

但知识工作与流水线操作有一个根本区别:在流水线上,更多的产出通常意味着更高的价值;在知识工作中,更多的人工智能使用量不仅不一定意味着更高的产出价值,甚至可能适得其反。一个工程师用人工智能工具生成了 1000 行代码,但其中 800 行需要被修改或删除,这 1000 行代码对应的 token 消耗是在创造价值还是在浪费资源?一个分析师让人工智能助手生成了 50 页的市场分析报告,但真正有洞察价值的内容只有其中 5 页,那另外 45 页消耗的算力算作”高绩效”还是”低效率”?

这是 Tokenmaxxing 的核心悖论:它把手段当成了目的。人工智能工具的价值在于帮助人类更高效、更高质量地完成工作,而非成为一种需要被最大化消耗的资源。当消耗量本身变成了考核指标,人们就会本能地围绕这个指标进行优化——即使这种优化与实际的工作目标背道而驰。

NVIDIA 的”Token 预算”与 Shopify 的绩效改革:两种截然不同的方向

有趣的是,虽然 Tokenmaxxing 这个词暗示着一种盲目最大化的倾向,但不同公司对人工智能使用量化管理的具体实践其实差异很大。

NVIDIA 的黄仁勋提出的”token 预算”概念,如果从字面上理解,实际上可能是一种合理的资源管理工具。就像企业给部门分配财务预算来控制支出一样,给团队分配算力预算可以防止人工智能资源被无节制地消耗。问题是执行层面的走样——当管理者把”用完了 token 预算”等同于”工作做到位了”时,预算管理就蜕变成了出勤考核。

Shopify 的做法更加直接也更加危险。将人工智能使用情况写入绩效考核体系,意味着不积极使用人工智能工具的员工可能面临负面的绩效评价,无论他们的实际工作成果如何。这创造了一种扭曲的激励结构——员工被激励去”展示人工智能使用行为”而非”产出高质量工作成果”。这和二十年前对”代码行数”的迷信如出一辙,当时很多公司用工程师每天写的代码行数来评估生产力,结果催生了大量冗余和低质量的代码。

两种做法的分歧指向一个更深层的管理学命题:在人工智能时代,什么才是衡量知识工作者价值的正确指标?传统的工时记录和任务完成量已经被证明是不充分的,但用人工智能消耗量来替代同样站不住脚。最终的答案可能是回归到对工作成果本身的评估——但这恰恰是最难量化、最依赖管理者判断力的部分。

60% 的高管在赌一个还没兑现的承诺

哈佛商业评论的调查数据值得被反复咀嚼:60% 的企业高管因为”预期人工智能能力”而做出了裁员决定,但只有 2% 是基于实际的人工智能部署效果。

这组数字揭示了当前企业人工智能战略中最危险的一个断层——决策和现实之间的巨大鸿沟。高管们在做”如果我们部署了人工智能,就可以减少这些岗位”的假设性推演,并基于这个假设执行了不可逆的裁员行动。但人工智能部署本身是一个充满不确定性的过程——技术选型、系统集成、数据准备、用户培训、流程再造——每一个环节都可能出现预期之外的阻碍和延迟。

Sam Altman 对”人工智能洗裁员”现象的公开承认更是耐人寻味。作为全球最大人工智能公司的首席执行官,他比任何人都清楚当前人工智能技术的实际能力边界。他的承认等于在说:很多以人工智能为名的裁员,实际上与人工智能技术的成熟度无关。这些裁员的真正驱动力可能是成本压力、投资者期望、竞争对手的示范效应,甚至仅仅是管理层需要一个听起来”面向未来”的叙事来包装一次普通的降本增效行动。

这种”预期驱动而非现实驱动”的裁员模式带来的风险是双重的。对于被裁的员工,他们失去的是真实的工作,获得的安慰是一个”总有一天人工智能会取代你的工作”的未经证实的假设。对于裁员的企业,当它们发现人工智能并不能如预期那样快速填补被裁岗位的空缺时,可能不得不重新招聘——而这种”先裁后招”的循环不仅浪费了大量的招聘和培训成本,更损害了企业在人才市场上的雇主品牌。

反直觉的信号:知识工作者比体力工作者更早受冲击

与 Tokenmaxxing 现象相呼应的另一个重要数据点来自 Karpathy 发布后又删除的那份”人工智能风险岗位”列表。这份列表最引人注目的发现是:高薪知识工作岗位的”人工智能暴露度”反而高于低薪体力工作岗位。

这个结论与大众直觉相矛盾。在公众想象中,人工智能替代工作的路径应该是从简单到复杂、从低端到高端——先替代流水线工人和收银员,再逐步蚕食知识工作者的领地。但现实正好相反。大语言模型天生擅长处理文本、数据和逻辑推理——而这恰恰是知识工作者的核心活动。相比之下,需要灵巧双手和复杂空间感知的体力工作(如水管维修、电气布线、建筑施工)目前仍然远远超出人工智能和机器人的能力边界。

Substack 上一篇引用”O-Ring 模型”的经济学分析进一步加深了这个洞察。O-Ring 理论指出,在一个由多个环节组成的生产链条中,如果某个环节的替代成本极低(比如人工智能可以轻易替代的文档写作和数据分析),那么整个链条中最有价值的环节将集中到人工智能最难替代的部分。这意味着未来的高薪工作不是”用人工智能做事的工作”,而是”人工智能做不了的工作”——需要物理操作、情感互动、道德判断或高度非结构化问题解决能力的工作。

Tokenmaxxing 的终局:从数字出勤主义到价值导向的管理变革

Tokenmaxxing 作为一种管理迷思,其寿命可能不会太长。任何基于代理指标而非核心目标的考核方式最终都会被自身的荒谬性击败——就像”代码行数考核”在软件行业中被废弃、”论文数量考核”在学术界中受到越来越多质疑一样。

但 Tokenmaxxing 暴露出的深层问题不会随它的消亡而消失。这个问题就是:当人工智能工具无处不在时,如何评估人类员工的独特贡献?

一种可能的方向是从”投入量”转向”判断质量”的评估。不是你用了多少人工智能,而是你在使用人工智能的过程中做出了什么样的判断——什么时候选择采纳人工智能的建议,什么时候选择否决;如何提出正确的问题来引导人工智能产出有价值的结果;以及最重要的,如何识别人工智能输出中的错误和偏差并在这些输出到达最终用户之前进行修正。

换句话说,未来知识工作者的核心竞争力可能不是”用人工智能做事的能力”,而是”知道什么时候不该用人工智能的判断力”。这种判断力来自深厚的领域知识、丰富的实践经验和敏锐的批判性思维——恰恰是人工智能本身无法提供、也无法用 token 消耗量来衡量的东西。

Tokenmaxxing 是一面镜子。它照出的不是人工智能技术的局限性,而是人类管理智慧在面对新工具时的惯性思维——用老方法度量新事物,用旧框架理解新范式。打破这种惯性,可能是人工智能时代最不起眼但也最重要的管理挑战。

参考资料

  1. “Tokenmaxxing”——数字考勤主义 2.0 — Remote Work Europe, 2026-03-24
  2. AI 自动化如何真正影响就业——O-Ring 模型分析 — Alex Imas Substack, 2026-03-23
  3. Karpathy 发布后删除”AI 风险岗位”列表 — AOL, 2026-03-23
  4. Reddit CEO 将重点招聘”AI 原生”毕业生 — Fortune, 2026-03-23