以下开篇为基于 SHRM 调研数据构建的典型场景还原,非特定个人真实经历。

2026 年 3 月,一位在财富 500 强企业工作了 8 年的 HR 业务伙伴(HRBP)发现,她的日历突然空了 40%。不是因为被裁员——她的工号、头衔、薪资条一切如常。而是因为她曾经负责的简历筛选已交给 AI 排序引擎,薪酬建模被接入 ServiceNow 的 Now Assist 人员数据 Agent,员工满意度调研由大语言模型驱动的情绪分析管线自动完成。她还坐在同一张办公桌前,但办公桌上的工作已经不属于她了。

她不是孤例。根据 SHRM(Society for Human Resource Management)2026 年 4 月发布的《State of AI in HR 2026》报告,在对 2100 余家企业领导者的调研中,一个数据格外刺眼:57% 的受访企业报告 AI 导致了现有岗位的职责重组或转移,而仅 10% 报告 AI 已导致实际岗位消失——企业层面的报告比率约为 5.7:1。换言之,在企业视角下,AI 引发职责重组的普遍程度是岗位消失的近 6 倍。39% 的企业已在 HR 职能中实际部署了 AI 工具,而 57% 的 HR 专业人士对自己所在州的 AI 相关劳动法规一无所知。(来源: SHRM, State of AI in HR 2026 Full Report, 2026-04-05)

这不是一个关于「机器人抢饭碗」的故事。这是一个关于你的饭碗还在、但碗里的饭已经被一勺一勺舀走的故事。


第一章|5.7:1 的沉默信号:为什么「没被裁」不等于「没事」

数据的真正含义

主流媒体对 AI 与就业的叙事长期被「替代率」统治——多少岗位会消失、多少行业会被颠覆。McKinsey Global Institute 在 2023 年 6 月发布的报告《Generative AI and the Future of Work in America》预测到 2030 年全球约 4 亿工人需要转换职业;World Economic Forum 在 2024 年 1 月发布的《Future of Jobs Report 2024》预测 8500 万个岗位将被技术取代。这些数字足够吓人,也足够简单,适合做头条。

但 SHRM 2026 年的调研揭示了一个被这种叙事遮蔽的结构性现实:岗位消失是低频事件,职责重组才是高频现实

需要严谨说明的是,5.7:1 这个比率是企业报告层面的比例之比——57% 的企业报告了职责重组,10% 的企业报告了岗位消失。它衡量的是”有多少企业经历了这种变化”,而非”有多少个岗位受到影响”。但即便如此,这个企业层面的信号已经足够强烈:职责重组的普遍性远超岗位消失。如果你是一个关注 AI 对劳动力冲击的分析师,把 90% 的注意力放在「哪些岗位会消失」上,你就错过了影响面更广的结构性变化。

场景还原:一个 HR 专员的职责蒸发过程

以 HR 专员(HR Specialist)这个岗位为例来还原职责迁移的具体路径。以下职责占比为基于美国劳工统计局(BLS)O*NET 数据库中 HR Specialist(SOC 13-1071)岗位描述的作者估算,旨在提供直观参照而非精确统计。

2024 年的 HR 专员典型职责包括:简历筛选与初筛面试安排(约 25%)、薪酬与福利方案建模(约 15%)、员工关系与满意度调查管理(约 15%)、入职/离职流程管理(约 10%)、合规文档与劳动法审查(约 15%)、培训需求分析与项目协调(约 10%)、日常行政与报告(约 10%)。

2026 年 4 月的同一个 HR 专员,头衔不变,但职责已经发生了以下迁移:

  • 简历筛选:交给 AI 排序引擎(如 HireVue 的 AI 面试评估系统、Darwinbox 的 AI 绩效管理模块),HR 专员从”筛选者”变成”AI 输出审核者”,工作量从约 25% 压缩到约 5%,且核心判断权已转移给算法。HireVue 官方数据显示其 AI 面试评估已被超过 700 家企业采用。(来源: HireVue 官方网站)
  • 薪酬建模:接入 ServiceNow 的 Now Assist 实时劳动力数据 Agent,外部基准数据自动拉取、方案自动生成,HR 专员从”建模者”变成”方案确认者”。Josh Bersin 在 2026 年 4 月 3 日的播客中明确描述了 ServiceNow 的 HRBP 如何与”人员数据 Agent”并肩工作,实现实时薪酬基准对标。(来源: Josh Bersin Podcast, joshbersin.com, 2026-04-03)
  • 员工情绪分析:Anthropic 2026 年 4 月发表的研究发现 Claude 模型内部存在可因果影响行为的情绪表征向量(包括喜悦、绝望、敌意等),这项研究本身用于安全对齐,但其技术基础——对情绪状态的精确建模——已经被企业级 HR 工具用于员工情绪的自动化分析。(来源: Anthropic Research Blog, 2026-04; 36kr 转述, 2026-04-05)
  • 合规文档审查:AI 法律文档工具已能自动完成劳动法合规审查的初稿,Harvey AI 在 2025 年已获得 Sequoia 领投的 1 亿美元 C 轮融资,专注法律 AI 工具。(来源: TechCrunch, 2025-12-18)
  • 培训需求分析:被 AI 驱动的技能差距分析工具替代,HR 专员从”分析者”变成”结果传达者”。

最终结果:这位 HR 专员还在岗位上,但她的核心职责——那些需要判断力、专业知识和经验积累的工作——已经被分配给了算法、外部 Agent 和自动化管线。留给她的,是”监督 AI 输出”、”确认系统建议”、”处理 AI 无法覆盖的边缘案例”。

这不是升级。这是隐性降级。

与裁员的本质区别

裁员是一个离散事件:某一天你收到通知,你的岗位不存在了。它是痛苦的,但它是清晰的。你知道发生了什么,你可以申请失业保险,你可以重新求职,劳动法对裁员有明确的保护框架。

职责迁移是一个连续过程:没有某一天你被通知「你的工作被 AI 接管了」。它是渐进的——先是简历筛选模块上线了,然后薪酬建模工具接入了,再然后情绪分析自动化了。每一步看起来都是「提效」而非「替代」,每一步你都还在,每一步你的薪资都没变。但 18 个月后回头看,你的岗位已经从一个需要专业判断力的角色,变成了一个 AI 系统的人类监督节点。

SHRM 报告中 57% 的 HR 专业人士对所在州 AI 法规一无所知这个数据点,在这个语境下变得尤为令人不安:他们不知道自己正在被隐性降级,也不知道有没有法律保护他们不被隐性降级


第二章|隐性降级的 3 层机制:从职责迁移到价值蒸发

职责迁移不是随机发生的。它遵循一个可预测的 3 层机制,每一层都在系统性地侵蚀岗位的实质价值和从业者的议价能力。

第 1 层:任务分解与选择性自动化

AI 不会一次性替代一个完整岗位,它替代的是岗位中的特定任务模块。而被优先替代的,恰恰是那些最具「可编码性」的高价值认知任务——数据分析、模式识别、文档生成、方案建模。

这里有一个反直觉的悖论:被 AI 优先接管的不是最低价值的任务(那些早就被 RPA 和流程外包处理了),而是中高价值的认知任务。简历筛选不是端茶倒水,它需要对岗位需求的理解、对候选人潜力的判断、对文化匹配度的评估。薪酬建模不是数据录入,它需要对市场基准的把握、对内部公平性的权衡、对激励结构的设计。

当这些中高价值任务被 AI 接管后,留给人类的是两头:

  • 高端:需要深度人际互动、伦理判断、政治敏感度的工作(如高管薪酬谈判、敏感裁员沟通)——这些通常只占原有工作量的 10-15%;
  • 低端:AI 无法处理的边缘案例、系统故障的人工兜底、以及”监督 AI 输出”的看护工作——这些技术含量低、可替代性高。

中间层——那个定义了你专业身份、构成了你议价能力核心的中高价值认知工作——被掏空了。

Anthropic 在 2026 年初发布的多代理协作架构(采用 Planner + Generator + Evaluator 三角色分工)进一步加速了这个过程。该架构专为解决长时间运行的复杂任务中上下文丢失与任务提前终止问题而设计,其本质是让 AI 能够处理更复杂、更长周期的认知任务链——而这些正是此前被认为「AI 还做不好、需要人类监督」的领域。(来源: Anthropic Engineering Blog, 2026)

当 Planner Agent 能分解复杂任务、Generator Agent 能执行多步骤工作、Evaluator Agent 能自我质检时,人类在「监督 AI 输出」这个环节的价值也在被进一步压缩。

第 2 层:议价能力的结构性侵蚀

职责迁移的第 2 层效应是对从业者议价能力的系统性破坏,而这种破坏通过 3 个渠道同时发生。

渠道 A:技能贬值。当你的核心技能(如薪酬建模)被 AI 工具化后,这项技能在劳动力市场上的稀缺性急剧下降。以前能做复杂薪酬建模的 HR 是稀缺人才,现在任何会操作 ServiceNow Now Assist 的人都能产出同等质量的方案。你的 8 年经验积累在 AI 面前被压缩为”能否正确使用工具”的二元判断。

渠道 B:岗位可比性模糊。传统的薪酬体系基于岗位职责的可比性——做同样工作的人拿同样的钱。但当你的职责被掏空 60% 后,你的岗位在市场上的”可比对象”变了。你还叫 HR 专员,但你的实际工作内容已经更接近”AI 系统操作员”。而 AI 系统操作员的市场价格,远低于 HR 专员。企业不会立即降薪——那会引发法律和 PR 风险——但在下一次薪酬调整、绩效评估或组织重组时,这个价差会被”修正”。

渠道 C:替代弹性增大。当你的核心工作变成”监督 AI 输出”时,替代你的门槛大幅降低。以前替代一个资深 HR 专员需要找一个有同等经验和判断力的人,现在只需要找一个会操作 AI 工具、能做基本质检的人。SHRM 报告中 46% 的企业计划在 HR 中进一步使用 AI 这个数据,意味着这种替代弹性还在持续增大。

Anthropic CEO Dario Amodei 在 2026 年初多次公开谈及 AI 对劳动力的冲击。他的措辞值得玩味——他没有说”很多人会失业”,他说的是 AI 将对劳动力市场产生”深远影响”(”profound impact”)。(来源: Dario Amodei 公开演讲及采访, 2026 年初)这种模糊表述本身就暗示了问题的复杂性——冲击的主要形式不是简单的失业,而是更难定义、更难量化、更难应对的结构性价值侵蚀。

与此同时,Anthropic 自身的组织动态也在映射这种张力。2026 年 4 月,Anthropic 前 AI 安全研究员 Mrinank Sharma 发表离职信,对高速商业化背景下安全对齐工作的优先级表达了担忧。(来源: 技术媒体报道, 2026-04)Anthropic 在 2025 年 3 月完成了由 Lightspeed Venture Partners 领投的 35 亿美元融资,估值达到约 615 亿美元。(来源: Reuters, 2025-03-24)当一家高速增长的 AI 公司的安全研究人员都在质疑方向时,指望这些公司主动减缓对劳动力的冲击,显然是不现实的。

第 3 层:组织记忆的不可逆转移

第 3 层是最深层、也最难逆转的:当职责从人转移到 AI 系统后,组织的隐性知识和决策记忆也随之转移

以招聘为例。一个经验丰富的 HR 专员在筛选简历时,不仅仅在做模式匹配——她知道某个部门经理偏好什么风格的候选人,她知道上次招的那个”完美简历”的人其实表现不佳,她知道某些学校的某些专业出来的人在公司的留存率更高。这些隐性知识从未被写进任何流程文档,它们存在于人的经验和判断中。

当 AI 接管简历筛选后,这些隐性知识有两个归宿:要么被编码进 AI 的训练数据和提示词中(此时知识的载体从人变成了系统),要么直接丢失(AI 用自己的模式替代了人类的判断模式)。无论哪种情况,当这个 HR 专员离职时,组织损失的隐性知识远少于 AI 接管前——因为关键知识已经在系统里了。

这意味着:职责迁移一旦完成,就很难逆转。组织不会因为”想恢复人类判断”而把工作从 AI 手中拿回来,因为此时人类已经不再拥有做这些判断所需的上下文积累和实践经验。你离开 AI 驾驶辅助 3 年后,你的手动驾驶技能会退化。同理,一个 HR 专员在”监督 AI 输出”的模式下工作 2 年后,她独立完成薪酬建模的能力会显著退化。

这是大多数人没有看到的第三层洞察:职责迁移不仅仅是”谁在做这个工作”的问题,它是”谁拥有做这个工作的能力”的问题。一旦能力从人转移到系统,即使企业想逆转,也找不到有能力接手的人了。这是一个自我强化的锁定效应。

ServiceNow 的 Agentic HR 实践是这一趋势的典型案例。当 HRBP 与 AI”人员数据 Agent”并肩工作、实时接入劳动力数据和外部基准时,决策的知识基础已经从”人的经验”转移到”系统的数据”。(来源: Josh Bersin Podcast, joshbersin.com, 2026-04-03)Josh Bersin 将此描述为”HR 团队在公司整体 AI 转型中扮演领导角色”——但换一个视角看,这也是 HR 团队的核心知识资产正在被系统化、可转移化、去人格化的过程。


第三章|谁在受益?职责迁移的赢家与输家地图

如果 5.7:1 的职责重组正在发生,那么被迁移的职责去了哪里?谁是这场再分配的赢家?

赢家 #1:AI 工具平台(最大受益者)

每一项被迁移的职责都意味着一个新的 SaaS 订阅或 API 调用。ServiceNow、Darwinbox、Workday 等 HR 科技平台正在把人类的认知劳动转化为可计量的软件收入。

这个商业模式的精妙之处在于:它不需要替代岗位,只需要替代职责。企业不需要裁掉 HR 专员(那会引发法律和舆论风险),只需要给 HR 专员配一个 AI 工具(这被包装为”赋能”和”提效”)。工具的成本远低于人力成本,但工具替代的是人力中最有价值的部分。

2026 年的 Agentic AI 平台竞争已经白热化。Salesforce 在 2025 年 9 月 Dreamforce 大会上发布了 Agentforce 平台,正在客服和 CRM 领域削减人力需求。ServiceNow 推出了 AI Control Tower 进行企业级 Agent 治理。据 Grand View Research 估计,全球 Agentic AI 市场规模在 2025 年已达约 50 亿美元,预计到 2030 年将超过 470 亿美元,年复合增长率超过 45%。(来源: Grand View Research, 2025)每一个百分点的增长都对应着某个领域的人类职责被进一步接管。

赢家 #2:少数”AI 原生”从业者

在每个受影响的职能领域,都会出现一小批能够有效驾驭 AI 工具、将 AI 输出转化为业务决策的”AI 原生”从业者。他们的生产力是传统从业者的数倍,他们的议价能力不降反升。

但这里有一个关键的数量不对称:一个 AI 原生 HR 专员能做 3-5 个传统 HR 专员的工作。这意味着即使 AI 原生从业者的薪资翻倍,企业的总人力成本仍然大幅下降。赢家的数量远少于输家。

赢家 #3:企业高管和股东

职责迁移的财务效果是:相同的产出,更少的人力成本(或相同的人力成本,更多的产出)。这直接转化为利润率提升和股东回报。这解释了为什么企业领导者在 SHRM 调研中如此坦然地承认 AI 带来的职责变化——对他们来说,这是好消息,不是坏消息。

输家:中层认知工作者(最大受害者)

最大的输家不是体力劳动者(他们的工作暂时还难以被 AI 替代),也不是顶层决策者(他们是这场变革的推动者和受益者),而是中层认知工作者——那些工作内容主要是数据分析、报告生成、方案建模、流程管理的白领。

根据 layoffs.fyi 的追踪数据,2024 年全年科技行业裁员总数超过 15 万人,2025 年第一季度延续了这一趋势。(来源: layoffs.fyi, 持续更新)Oracle 在 2025 年底至 2026 年初进行了多轮裁员。eBay 在 2024 年 1 月宣布裁员约 1000 人,占员工总数约 9%。(来源: CNBC, 2024-01-23)

但这些裁员数字只是冰山一角。SHRM 的 5.7:1 比率告诉我们:每 1 家报告岗位消失的企业背后,有 5.7 家企业正在经历职责重组。那些经历职责重组的员工没有被裁,所以不会出现在裁员统计中。他们的薪资暂时没变,所以不会出现在薪资下降统计中。他们的头衔没变,所以不会出现在岗位消失统计中。但他们的工作实质已经被改变,他们的长期议价能力正在被侵蚀。

真正的困境比失业更微妙:你没有失业,但你正在失去你的专业价值。


第四章|法律与制度的真空地带

SHRM 报告中最令人警醒的数据之一是:57% 的 HR 专业人士对自己所在州的 AI 相关劳动法规一无所知

这不仅仅是知识缺口的问题。更深层的问题是:现有的劳动法框架根本没有为”隐性降级”设计保护机制

现有法律的盲区

劳动法保护你不被无故解雇(wrongful termination),保护你在被裁员时获得遣散补偿(severance),保护你不因歧视而被降职(demotion)。但”你的岗位职责被 AI 系统逐步接管,导致你的工作实质从专业判断变成系统监督”——这个场景不在任何现有法律的保护范围内。

为什么?因为从法律角度看:

  1. 你没有被解雇——你的劳动合同仍然有效;
  2. 你没有被降职——你的头衔和职级没有变化;
  3. 你的薪资没有被削减——至少在短期内;
  4. 你的工作条件没有恶化——如果说有变化,”监督 AI 输出”可能比”手动筛选 500 份简历”更轻松。

从传统劳动法的视角看,企业给你配了一个 AI 工具来”帮助”你完成工作,这是”改善工作条件”,不是”损害劳动者权益”。

但实质上,你的岗位价值已经被掏空,你的长期职业前景已经被改变,你在劳动力市场上的竞争力已经被削弱。这种实质性损害,现有法律无法触及。

AI 监管的政治议程错位

特朗普政府在 AI 监管上的立场进一步加剧了这种真空。2025 年 1 月,特朗普签署行政令撤销了拜登时代的 AI 安全行政令(Executive Order 14110),转向”促进创新”的监管哲学。(来源: White House, Executive Order, 2025-01-20)2026 年初,围绕 AI 系统在政府采购中的安全审查问题,Anthropic 与联邦政府之间出现了法律争议。(来源: 多家媒体报道, 2026 年初)

这些事件的共同逻辑是”国家安全优先”和”商业创新优先”,而非”劳动者保护优先”——政府关心的是 AI 系统的安全风险和竞争力,而不是 AI 对劳动者议价能力的侵蚀。AI 监管的政治议程被国家安全和商业利益主导,劳动力保护被挤到了边缘。

欧盟 AI Act 的启示与局限

欧盟的 AI Act 于 2024 年 8 月正式生效,要求高风险 AI 系统进行影响评估。(来源: European Commission, AI Act, 2024-08-01)但其关注点仍然是歧视和安全,而非劳动力价值侵蚀。

如果我们可以评估一个 AI 系统对公民权利的风险,为什么不能评估一个 AI 系统对特定岗位群体议价能力的风险?如果我们可以因为歧视风险而限制某个 AI 系统的部署,为什么不能因为劳动力风险而要求企业在部署 AI 时进行”职责影响评估”?

将”职责迁移影响评估”纳入 AI 部署的合规要求,是一个值得认真考虑的政策方向。


第五章|算力政治与职责迁移的加速器

职责迁移的速度与 AI 系统的能力边界直接相关。而 2025-2026 年的多个事件表明,这个边界正在被多个力量同时推动扩张。

推理成本的悬崖式下降

根据 a16z 合伙人 Martin Casado 在 2025 年的分析,大语言模型的推理成本在过去 18 个月内下降了约 10 倍,且这一趋势仍在加速。(来源: a16z Blog, 2025)Cerebras 的 CS-3 芯片在推理速度上展示了相对 GPU 方案的显著优势。华为在 2025 年发布了 Ascend 910C AI 芯片。(来源: Reuters, 2025-11-15)韩国在 2025 年 6 月宣布了约 26 万亿韩元(约 190 亿美元)的国家 AI 战略投资计划。(来源: Reuters, 2025-06-17)

推理成本的下降直接降低了企业部署 AI 的门槛。当运行一个 AI 薪酬建模 Agent 的月成本从 500 美元降到 50 美元时,即使是中小企业也有动力将这项职责从人类转移到 AI。SHRM 调研中 46% 的企业计划在 HR 中进一步使用 AI,这个比例在推理成本继续下降的趋势下只会上升。

开源模型的民主化效应

Google 在 2025 年 3 月发布了 Gemma 2 开源模型系列,Meta 在 2024 年 7 月发布了 Llama 3.1 405B 开源模型。(来源: Google AI Blog, 2025-03; Meta AI Blog, 2024-07-23)开源模型的质量提升意味着,企业不再需要依赖昂贵的商业 API 来实现职责迁移,他们可以在本地部署开源模型来完成同样的任务。

这进一步加速了职责迁移的普及速度和范围。此前,只有大企业才有预算部署 AI 来接管 HR 职责;现在,一个 50 人的公司也可以用开源模型搭建一个简历筛选系统。

资本的逻辑与劳动者的利益

OpenAI 在 2025 年 10 月完成了 66 亿美元融资,估值达到 1570 亿美元,并在 2026 年初传出正在筹备 IPO 的消息。(来源: Reuters, 2025-10-02)Anthropic 在 2025 年 3 月完成了 35 亿美元融资,估值约 615 亿美元。(来源: Reuters, 2025-03-24)Amazon 对 Anthropic 的总投资承诺达到 80 亿美元。(来源: Amazon Press Release, 2025-03)

2026 年 4 月,Anthropic 宣布调整 Claude Code 订阅策略,限制第三方工具(如 OpenClaw)对算力的使用,理由是这些工具对算力造成了”不成比例的压力”。Claude Code 订阅用户使用第三方工具需额外付费。(来源: TechCrunch, 2026-04-04)

这些事件表面上是关于算力管控和融资的,但其深层含义是:AI 工具的供给侧正在经历快速的能力扩张和成本重构。这些天文数字的资本投入,最终都需要通过企业客户的 AI 部署来变现。而企业 AI 部署变现的主要方式之一,就是用 AI 替代人类的认知职责。资本的逻辑与劳动者的利益在这里形成了结构性对立


第六章|对立视角与我的判断

乐观视角:”职责迁移 = 技能升级”

乐观者会说:职责迁移不是隐性降级,而是技能升级的机会。当 AI 接管了简历筛选和薪酬建模,HR 专员可以专注于更高价值的工作——战略人才规划、组织文化建设、领导力发展。这不是降级,这是升级。

MIT 经济学家 David Autor 在其 2024 年的研究中指出,历史上每一次重大技术变革都创造了此前不存在的新职业类别——1940 年美国 60% 的工作岗位在 1900 年尚不存在。(来源: David Autor, “Applying AI to Rebuild Middle Class Jobs”, NBER Working Paper, 2024)Autor 甚至认为 AI 有潜力通过降低专业知识的获取门槛来重建中产阶级岗位。

这个论点有相当的历史依据,但它忽略了 3 个关键问题:

第一,”更高价值的工作”的总量是有限的。一个组织需要 10 个人做简历筛选,但只需要 2 个人做战略人才规划。当 AI 接管了前者,不是所有 10 个人都能转型去做后者。这是一个数学问题,不是意愿问题。

第二,转型需要时间和投入,而企业没有义务(在现有法律框架下)为员工提供转型支持。SHRM 报告显示,虽然企业承认 AI 带来了职责变化,但对 upskilling 的实际投入远低于需求。World Economic Forum 2024 年报告指出,60% 的工人需要在 2030 年前接受再培训,但目前只有 50% 的工人能获得足够的培训机会。(来源: WEF, Future of Jobs Report 2024, 2024-01)

第三,”监督 AI 输出”本身正在被 AI 进一步自动化。Anthropic 的多代理架构中的 Evaluator Agent 本质上就是在做”监督 AI 输出”的工作。当 AI 能自我评估时,人类监督者的价值进一步缩小。

悲观视角:”这是不可逆的价值毁灭”

悲观者会说:职责迁移是一个不可逆的过程,它将导致大规模的中产阶级萎缩和社会不稳定。经济学家 Daron Acemoglu(2024 年诺贝尔经济学奖得主)在其与 Simon Johnson 合著的《Power and Progress》中警告,技术进步并不自动带来广泛的社会福利——它取决于制度设计和权力分配。Acemoglu 在 2024 年的研究中估计,AI 在未来 10 年内对美国 GDP 的提升可能仅为 0.5-1.5%,远低于乐观预期,但对劳动力市场的结构性冲击可能被严重低估。(来源: Daron Acemoglu, “The Simple Macroeconomics of AI”, NBER Working Paper 32487, 2024)

这个论点也有道理,但它可能低估了劳动力市场的长期适应能力和新岗位的创造速度。

我的判断

我的判断是:两种视角都抓住了部分真相,但都忽略了时间维度的关键性

长期来看(10-20 年),劳动力市场确实会适应,新的岗位和技能需求会出现。但短期到中期(2-7 年),职责迁移将造成大规模的个体价值损失,而这种损失因为其隐蔽性而不会获得应有的政策关注和社会支持。

这就像气候变化:长期来看人类会适应,但短期内的极端天气事件会造成巨大的个体损失。职责迁移就是劳动力市场的”极端天气”——它不会毁灭整个系统,但它会在未来 5 年内让数千万中层认知工作者经历实质性的价值缩水,而他们中的大多数甚至不会意识到发生了什么,直到为时已晚。

这里有一个更深层的、大多数人没有看到的动态:职责迁移的隐蔽性本身就是它最危险的特征。 裁员会引发社会关注、政策响应和法律保护。但当数千万人的岗位”还在”、薪资”没变”、头衔”照旧”时,没有人会为他们发声——因为从统计数据上看,什么都没有发生。这是一场没有受害者的危机,直到受害者的数量大到无法忽视。

SHRM 的 5.7:1 比率是一个预警信号。它告诉我们:不要只盯着裁员数字,要看职责流向。你的岗位安全不等于你的职业安全。你没被裁不等于你没事。


So What:如果你正在经历隐性降级,该怎么办

对个人

  1. 审计你的职责组合。列出你当前岗位的所有职责,标注哪些已经或即将被 AI 工具接管。如果超过 40% 的核心职责已经迁移,你正在经历隐性降级。
  2. 投资”AI 不可编码”的技能。深度人际关系建设、跨文化沟通、伦理判断、创造性问题框架设定——这些是短期内 AI 难以替代的。不要只投资”学会使用 AI 工具”——那是必要条件,但不是充分条件。真正的护城河是你能用 AI 做到别人做不到的事。
  3. 建立外部议价能力。当你在一个组织内的职责被掏空时,你的内部议价能力会下降。确保你在外部劳动力市场上的能见度和网络足够强,以对冲内部价值缩水的风险。

对企业领导者

  1. 诚实面对职责迁移的影响。不要用”赋能”和”提效”的话术掩盖实质性的职责掏空。员工最终会发现,而信任的丧失比坦诚的沟通代价更高。
  2. 为 upskilling 投入真金白银。如果你正在用 AI 替代员工 50% 的核心职责,你有道德义务(即使暂时没有法律义务)为他们提供转型支持。
  3. 进行”职责影响评估”。在部署每一个新的 AI 工具之前,评估它将接管哪些人类职责、影响多少员工、这些员工的替代路径是什么。

对政策制定者

  1. 将”职责迁移”纳入劳动力统计。现有的失业率和裁员统计无法捕捉隐性降级。需要新的指标来衡量”岗位职责构成变化”。
  2. 要求企业进行 AI 部署的劳动力影响评估。类似环境影响评估,在企业大规模部署 AI 之前,要求其评估并公开对劳动力的影响。
  3. 更新劳动法以覆盖”实质性职责变更”。当 AI 导致一个岗位超过 50% 的核心职责被转移时,应视为”实质性工作条件变更”,触发相应的劳动者保护机制。

5.7:1。 这个数字不会出现在任何裁员新闻的标题里。但它描述的现实——一场大规模的、隐蔽的、系统性的职责再分配——正在重塑数千万人的职业命运。

你的岗位还在。但你的工作,可能已经不是你的了。

而最危险的是:当你终于意识到这一点时,你可能已经失去了重新拿回它的能力。


参考资料

  1. State of AI in HR 2026 — Full Report — SHRM, 2026-04-05
  2. How ServiceNow Is Building the Agentic Future of HR — Josh Bersin Podcast, 2026-04-03
  3. Anthropic Says Claude Code Subscribers Will Need to Pay Extra for OpenClaw Support — TechCrunch, 2026-04-04
  4. The Simple Macroeconomics of AI — Daron Acemoglu, NBER Working Paper 32487, 2024
  5. Applying AI to Rebuild Middle Class Jobs — David Autor, NBER Working Paper, 2024
  6. Future of Jobs Report 2024 — World Economic Forum, 2024-01
  7. Generative AI and the Future of Work in America — McKinsey Global Institute, 2023-06
  8. Anthropic Raises $3.5 Billion in New Funding Round — Reuters, 2025-03-24
  9. OpenAI Closes $6.6 Billion Funding Round at $157 Billion Valuation — Reuters, 2025-10-02
  10. EU AI Act Enters into Force — European Commission, 2024-08-01

主题分类:劳动力变革