48 个百分点。

这是 2026 年 4 月 Stanford HAI(Human-Centered Artificial Intelligence)发布的年度 AI Index 报告中最刺眼的一个数字。69% 的 AI 研究人员认为人工智能将对经济产生积极影响,而仅有 21% 的美国公众持相同看法。不是 10 个百分点的温和分歧,不是 20 个百分点的显著差异,而是 48 个百分点的认知鸿沟——几乎是两个完全不同的现实判断。

同样的技术,同样的时代,同样的国家,却产出了两套截然相反的叙事。在 AI 专家的宇宙里,人工智能正在解锁前所未有的生产力革命、改善医疗诊断、加速科学发现;在普通公众的宇宙里,AI 是一台正在吞噬工作岗位的机器,一个无法信任的黑箱,一股让未来变得更加不确定的力量。

这篇文章的核心论点很简单:这种分裂不是信息不对称的问题,不是”公众不懂 AI”的问题,而是利益位置决定认知的结构性问题。 当我们追问为什么专家如此乐观、公众如此焦虑时,答案不在于谁读了更多论文,而在于谁在这场技术变革中获益、谁在承担代价。

而更危险的信号是:生成式 AI 在短短 3 年内达到了 53% 的人口采用率,却只换来了 21% 的公众支持率。历史上从未有一项技术在如此高的渗透率下面对如此低的信任度。这不是一个可以靠时间自动愈合的裂痕——它是一颗正在倒计时的社会治理定时炸弹。


第一章:两个平行宇宙——数据画像

1.1 认知鸿沟的全景图

Stanford HAI 的 AI Index 报告自 2018 年首次发布以来,已经成为全球 AI 领域最权威的年度综合评估之一。2026 年版报告延续了其一贯的数据密度风格,但今年的核心发现却指向了一个令人不安的方向:AI 领域的内部人士(insiders)与外部公众之间的认知断裂正在加速扩大。

根据该报告引用的调查数据,这种分裂不仅体现在对经济影响的判断上(69% vs 21%),还贯穿了多个关键维度:

  • 对工作的影响:73% 的 AI 专家认为 AI 将改善工作质量或创造新的就业机会,而仅有 23% 的公众持类似看法。差距 50 个百分点。
  • 对医疗健康的影响:84% 的专家认为 AI 将为医疗保健领域带来显著好处,而仅 44% 的美国人同意这一判断。差距 40 个百分点。
  • 整体信任度:公众对 AI 的信任度持续走低,与 AI 系统能力的快速提升形成鲜明的剪刀差。

(来源: Stanford report highlights growing disconnect between AI insiders and everyone else, TechCrunch, 2026-04-13; Stanford AI Report: 84% of Experts See AI Benefits in Healthcare, Only 44% of Americans Agree, KuCoin News, 2026-04)

这些数字揭示的不是一个渐进的、可以通过教育弥合的认知差距。这是一道结构性的裂缝,而且裂缝正在变宽。

1.2 这不是一个「科普问题」

面对这种分裂,技术圈最常见的反应是:「公众不了解 AI,需要更多科普。」这是一种居高临下的、且完全错误的诊断。

让我们看一个关键的反直觉数据点:生成式 AI 在推出后仅 3 年内就达到了 53% 的人口采用率,这一速度超过了个人电脑(PC)和互联网在同一时间窗口内的扩散速度。(来源: Generative AI Hits 53% Adoption in 3 Years, Outpacing PC and Internet, How2Shout, 2026-04)

换句话说,超过一半的人口已经在使用生成式 AI 工具——ChatGPT、Copilot、Gemini、Claude 或其他产品。他们不是对 AI 一无所知的旁观者,他们是日常用户。他们每天用 AI 写邮件、生成报告、搜索信息、辅助编程。

他们在用,但他们不信任。

53% 的采用率搭配 21% 的经济乐观支持率,这个组合在技术扩散史上几乎是前所未有的。当互联网在 1990 年代末达到类似的渗透率时,公众情绪是狂热的乐观——.com 泡沫本身就是这种乐观的产物。当智能手机在 2010 年代初期快速普及时,公众对移动互联网的态度同样以正面为主。

但 AI 不一样。人们在使用它的同时,对它的社会影响持深度怀疑态度。这不是因为他们「不懂」,恰恰相反——正是因为他们在使用中亲身体验到了 AI 的能力,才更加清楚地意识到这种能力对自身岗位和生计的威胁。

这是一个「在用但不信任」(adopting but not trusting)的悖论,而这个悖论的根源不在认知层面,而在利益层面。


第二章:受益者的乐观——为什么专家看到的是黄金时代

2.1 位置决定视角

要理解 AI 专家为什么如此乐观,我们首先需要理解他们是谁。

Stanford AI Index 报告中所指的「AI 研究人员」和「AI insiders」,并不是一个抽象的群体。他们是在顶级实验室、科技公司和研究型大学工作的技术精英。他们是 OpenAI、Google DeepMind、Anthropic、Meta FAIR 的研究员,是 Stanford、MIT、CMU 的教授,是 AI 创业公司的创始人和技术负责人。

这个群体有几个共同特征:

第一,他们是 AI 浪潮的直接经济受益者。 AI 研究人员和工程师的薪资在过去 3 年经历了爆发式增长。顶级 AI 研究员的年薪(含股票期权)动辄数百万美元,即便是中级 AI 工程师的薪资也远超其他技术领域。AI 领域的人才争夺战推高了整个群体的经济回报。

第二,他们的社会地位因 AI 而大幅提升。 在 ChatGPT 之前,机器学习研究员是一个相对小众的职业。现在,他们是全球最炙手可热的人才,是政策制定者争相咨询的对象,是媒体聚光灯下的常客。

第三,他们每天看到的是 AI 的能力边界在扩展。 作为技术的创造者,他们亲眼见证模型在基准测试上不断刷新纪录,在新的任务领域展现出惊人的能力。他们的日常工作充满了「AI 又能做到这个了」的正反馈循环。

当一个群体同时是技术的创造者、高薪岗位的占有者、资本增值的受益者和社会地位的上升者时,他们对这项技术持乐观态度,不仅是合理的,几乎是必然的。

他们的乐观是理性的——但也是位置性的(positional)。

2.2 专家乐观的合理基础

公平地说,AI 专家的乐观并非毫无根据。Stanford AI Index 2026 报告本身也记录了 AI 在多个领域的实质性进展:

  • AI 系统在越来越多的专业基准测试上达到甚至超越人类水平的表现。
  • AI 在药物发现、材料科学、气候建模等领域展现出加速科学研究的潜力。
  • AI 辅助编程工具(如 GitHub Copilot)已经显著提升了软件开发者的生产力。
  • AI 在医疗影像诊断、蛋白质结构预测等领域的应用已经从实验室走向临床。

这些进展是真实的。84% 的专家认为 AI 将为医疗保健带来显著好处,这一判断背后有大量的研究证据支撑。(来源: Stanford AI Report: 84% of Experts See AI Benefits in Healthcare, Only 44% of Americans Agree, KuCoin News, 2026-04)

问题不在于专家的乐观是否有技术基础——它有。问题在于,技术进步的收益分配是否均匀? 答案显然是否定的。

2.3 被忽视的「幸存者偏差」

这里存在一个更深层的认知陷阱:AI 专家群体本身就是一个经过极端筛选的样本。

能够成为 AI 研究人员或从业者的人,通常拥有高等教育背景(多为硕士或博士)、强大的数学和编程能力、以及在技术劳动力市场上的稀缺性。他们是最不可能被 AI 自动化取代的群体——至少在当前阶段,AI 还在创造对 AI 专家的需求,而不是替代他们。

当我们问一个 AI 研究员「你认为 AI 对经济好不好?」时,这个问题对他们来说几乎等同于「你觉得让你的技能变得更值钱的这个趋势好不好?」答案当然是好。

这就像在 19 世纪的工业革命中询问工厂主「你认为机械化对经济好不好?」——他们当然会说好。但如果你问的是手工织布工人,答案会截然不同。

69% 的专家乐观,不是因为他们比公众更聪明或更有远见,而是因为他们恰好站在了利益分配的正确一侧。


第三章:承担者的焦虑——为什么公众看到的是悬崖

3.1 入门级岗位的塌陷

如果说专家的乐观有其位置性基础,那么公众的焦虑同样有其坚实的经验基础。

Stanford AI Index 2026 报告中一个被广泛引用但未被充分讨论的数据点是:入门级科技岗位(entry-level tech jobs)出现了约 20% 的下降。 这一趋势正在形成经济学家所说的「沙漏型就业结构」(hourglass-shaped employment)——高端岗位(AI 研究、系统架构、战略决策)和低端服务岗位(需要物理操作的工作)相对稳定,但中间层的初级知识工作岗位正在被压缩。

(来源: Stanford’s annual AI report finds a gap between AI insiders and everyone else, The Next Web, 2026-04; Stanford AI Index Flags Growing Divide Between AI Experts and the Public, GeniusFirms, 2026-04)

这对理解公众焦虑至关重要。入门级岗位不仅仅是「初级工作」——它们是整个职业阶梯的第一级台阶。当这些台阶被移除时,受影响最大的是:

  • 刚毕业的年轻人:他们发现传统的「先拿到初级岗位、再逐步晋升」的职业路径正在断裂。
  • 正在转行的中年人:他们希望通过入门级岗位进入新领域,但这些入口正在收窄。
  • 非精英教育背景的求职者:他们最依赖入门级岗位作为进入知识经济的通道。

这就是「沙漏型就业」的残酷之处:它不是均匀地影响所有人,而是精准地打击那些最需要职业上升通道的群体。而这些群体,恰恰是构成「21% 公众支持率」的主体。

3.2 速度本身就是一种暴力

Stanford 报告中另一个值得深思的发现是生成式 AI 的扩散速度。53% 的采用率在 3 年内达成,超过了 PC 和互联网在同一时间窗口内的表现。(来源: Generative AI Hits 53% Adoption in 3 Years, Outpacing PC and Internet, How2Shout, 2026-04)

技术扩散速度的加快通常被硅谷叙事为一件好事——更快的采用意味着更快的生产力提升。但这种叙事忽略了一个关键变量:社会适应需要时间。

当 PC 在 1980-1990 年代逐步普及时,劳动力市场有大约 15-20 年的时间来调整——新的培训项目建立起来,教育体系逐步更新,工人有时间学习新技能。当互联网在 1990-2000 年代扩散时,虽然速度更快,但互联网早期更多是创造新岗位(网页设计师、SEO 专家、电商运营)而非直接替代现有岗位。

生成式 AI 不同。它的扩散速度极快(3 年达到 53%),同时直接威胁到大量现有的知识工作岗位——文案写作、初级编程、数据分析、客服、翻译、基础设计等。这意味着劳动力市场面临的是一种「压缩式冲击」:技术变革的速度远超个人和制度的适应能力。

对于一个 35 岁的初级数据分析师来说,被告知「你需要学习 prompt engineering 和 AI 工具来保持竞争力」是一回事;在 18 个月内发现自己的核心工作职能已经可以被 AI 完成 80% 是另一回事。速度本身就是一种暴力——它剥夺了人们适应和调整的时间。

3.3 公众焦虑的理性基础

让我们暂停一下,做一个重要的认知校准:公众对 AI 的焦虑不是非理性的恐慌,而是对真实风险的合理反应。

技术精英圈子有一种倾向,将公众的 AI 焦虑归因于「卢德主义」(Luddism)或「对未知的恐惧」。这种归因既傲慢又错误。

公众看到的现实是:

  • AI 工具正在被企业用来裁减人力成本,而不仅仅是「增强」现有员工。
  • AI 生成内容的泛滥正在侵蚀创意工作者的收入和职业尊严。
  • AI 系统的决策越来越影响他们的生活(贷款审批、简历筛选、保险定价),但他们对这些系统的运作方式没有任何透明度和控制力。
  • AI 的经济收益高度集中在少数科技公司和技术精英手中,而风险和成本由更广泛的社会承担。

当 73% 的专家认为 AI 将改善工作,而只有 23% 的公众同意时,公众不是在说「AI 没有用」——他们在说「AI 对你们有用,但对我们没有。」

这是一个关于利益分配的判断,而不是关于技术能力的判断。公众在这个问题上的判断力,可能比专家更敏锐。


第四章:53% 采用率 vs 21% 支持率——历史上从未出现过的悖论

4.1 技术扩散与信任的历史关系

在技术扩散的经典理论中(Everett Rogers 的创新扩散理论),技术采用和公众信任通常是正相关的:随着越来越多的人使用一项技术,熟悉度增加,恐惧减少,信任上升。这个模式在电话、电视、PC、互联网、智能手机的扩散过程中基本成立。

但生成式 AI 打破了这个模式。

53% 的采用率意味着生成式 AI 已经跨越了 Rogers 所说的「早期多数」(early majority)阶段,正在进入「晚期多数」(late majority)阶段。按照传统模型,此时公众信任应该处于上升通道。

然而现实恰恰相反。Stanford AI Index 2026 报告显示,公众对 AI 的信任度持续走低,安全担忧持续上升。(来源: Stanford’s AI Index 2026 shows rapid progress, growing safety concerns, and declining public trust, The Decoder, 2026-04)

这意味着什么?这意味着使用 AI 的经验本身并没有建立信任,反而可能在侵蚀信任。 人们在使用 ChatGPT 时体验到了它的能力,但同时也体验到了它的幻觉(hallucination)、不可预测性、以及对自身工作的潜在替代性。使用经验让他们更清楚地认识到 AI 的双面性——它既是工具,也是威胁。

4.2 「被迫采用」vs「主动拥抱」

53% 的采用率数字本身也需要被解构。采用不等于拥抱。

在很多情况下,生成式 AI 的采用不是个人选择的结果,而是工作环境和竞争压力驱动的结果。当你的公司开始使用 AI 工具,当你的竞争对手开始用 AI 提高效率,当你的客户开始期望 AI 级别的响应速度时,你不得不采用——不是因为你信任它,而是因为你别无选择。

这就像社交媒体的采用:很多人使用 Facebook 或 Instagram 不是因为他们信任这些平台,而是因为社交网络效应使得不使用的成本太高。但社交媒体的信任危机最终导致了严重的监管和社会后果——从 Cambridge Analytica 丑闻到全球范围内的平台监管立法。

AI 的「被迫采用」模式正在制造一个比社交媒体更大的信任定时炸弹。 因为 AI 影响的不仅仅是信息消费和社交行为,而是直接关系到人们的生计和职业生存。

4.3 信任赤字的政策后果

Stanford 报告还指出,AI 的快速发展正在加剧信任和政策方面的差距。(来源: AI’s surge is widening gaps in trust and policy, The Deep View, 2026-04)

当一项技术拥有高采用率但低信任度时,政策制定者面临一个两难困境:

  • 如果不加监管:公众的不信任会累积,最终可能以激烈的政治反弹形式爆发——想想欧洲对科技巨头的强硬监管姿态,或者美国各州层面纷纷涌现的 AI 限制性立法。
  • 如果过度监管:可能扼杀创新,让本国在全球 AI 竞争中落后。

这个困境之所以如此棘手,正是因为认知分裂的存在。AI 专家和产业界告诉政策制定者「AI 是好的,不要过度监管」;公众和劳工组织告诉政策制定者「AI 正在伤害我们,需要更多保护」。两种声音都有其合理性,但它们指向完全不同的政策方向。

Forbes 的报道进一步指出了一个令人担忧的现实:AI Agent 技术已经准备就绪,但企业的组织架构和治理能力还远未跟上。(来源: Stanford’s AI Report Card: Agents Are Ready. Companies Are Not, Forbes, 2026-04-14)

这意味着 AI 的能力边界正在以技术驱动的速度扩展,而企业治理、劳动法规、社会保障体系的适应速度远远落后。这种「能力-治理」的剪刀差,正是公众焦虑的深层来源之一。


第五章:沙漏型就业——谁被挤在了中间

5.1 沙漏的形状

让我们更深入地分析「沙漏型就业」这一概念,因为它是理解认知分裂的关键。

传统的就业结构是「金字塔型」或「橄榄型」:少数高薪精英在顶部,大量中等收入的知识工作者和技术工人在中间,低薪服务业工人在底部。AI 正在将这个结构挤压成沙漏型:

沙漏上半部(扩张):

  • AI 研究员、机器学习工程师、AI 产品经理
  • 高级战略顾问、AI 伦理专家
  • 能够有效利用 AI 工具放大自身能力的资深专业人士
  • AI 创业公司创始人和早期员工

沙漏中间(压缩):

  • 初级软件开发者(AI 编程助手正在替代部分工作)
  • 初级数据分析师(AI 可以自动完成大量基础分析)
  • 初级文案和内容创作者(生成式 AI 的直接冲击领域)
  • 初级翻译、校对、编辑
  • 初级客服和技术支持
  • 初级法律助理和会计助理

沙漏下半部(相对稳定):

  • 需要物理操作的服务业(水管工、电工、护理人员)
  • 需要深度人际互动的岗位(心理咨询、社会工作)
  • 需要在非结构化物理环境中工作的岗位(建筑工人、农业工人)

入门级科技岗位下降 20% 这个数据点,精确地指向了沙漏中间被压缩的部分。而这个部分,恰恰是传统中产阶级职业上升通道的核心。

5.2 职业阶梯的断裂

沙漏型就业结构最危险的后果不是当前的岗位损失,而是职业阶梯的断裂

在传统的知识经济中,职业发展路径是线性的:你从初级分析师做起,积累经验,晋升为高级分析师,然后是团队负责人、部门经理、高级管理者。每一级都建立在前一级的经验积累之上。

但当 AI 移除了底部的几级台阶时,一个根本性的问题出现了:未来的高级专业人士从哪里来?

如果初级编程岗位被 AI 编程助手大幅压缩,那么 10 年后谁来担任高级软件架构师?如果初级数据分析岗位被 AI 自动化,那么未来的首席数据官从哪里获得早期的实战经验?

这不是一个遥远的理论问题。它正在发生。当企业发现可以用 AI 工具替代 3 个初级分析师的工作,只保留 1 个中级分析师来监督 AI 输出时,它们在短期内节省了成本,但在长期内破坏了人才培养的管道。

AI 专家群体不会感受到这种断裂,因为他们已经站在了沙漏的上半部。 但对于正在试图进入知识经济的年轻人和转行者来说,这种断裂是致命的。这就是为什么 73% 的专家认为 AI 改善工作,而只有 23% 的公众同意——他们面对的是完全不同的劳动力市场现实。

5.3 从「增强」到「替代」的语义滑坡

AI 产业界最喜欢的话术是「AI 不会取代你,但会使用 AI 的人会取代你。」这句话在逻辑上是对的,但在实践中是一种精心设计的语义滑坡。

它暗示的是:只要你学会使用 AI,你就安全了。但现实是,当 1 个会使用 AI 的人可以完成过去 5 个人的工作时,那 4 个人去哪里?他们也学会了使用 AI,但市场只需要 1 个人。

「增强」(augmentation)和「替代」(replacement)之间的界限,在企业的成本优化逻辑下,是极其模糊的。当 AI 将一个岗位的生产力提升 5 倍时,企业的理性反应不是让现有员工做 5 倍的工作,而是裁减 80% 的人员,让剩下的 20% 用 AI 完成同样的产出。

Stanford 报告中入门级岗位下降 20% 的数据,就是这种从「增强」滑向「替代」的实证。


第六章:大多数人没看到的——认知分裂的系统性风险

6.1 政治极化的新燃料

大多数关于 AI 认知分裂的讨论停留在「技术政策」层面——需要更好的监管、更多的教育、更负责任的 AI 开发。但我认为,真正的风险远比这些更深刻。

AI 认知分裂正在成为政治极化的新燃料。

当一个社会中,受过高等教育的技术精英对 AI 持压倒性的乐观态度,而普通工薪阶层对 AI 持深度怀疑态度时,这种分裂会与已有的阶层矛盾、教育鸿沟、城乡差距叠加共振。

我们已经在过去 10 年中看到了技术变革如何加剧政治极化:全球化和自动化对制造业工人的冲击,是 2016 年民粹主义政治浪潮的重要推动力之一。AI 对知识工作者的冲击,可能引发一波新的、更大规模的政治反弹——因为这一次受影响的不仅是蓝领工人,还包括白领中产阶级。

当 69% 的专家说「AI 对经济好」而 79% 的公众不同意时,这不仅仅是一个技术政策问题——它是一个社会凝聚力问题。如果技术精英和普通公众对社会最重要的技术变革持截然相反的判断,那么基于共识的民主决策将变得极其困难。

6.2 「AI 治理赤字」的深层含义

Stanford 报告指出 AI Agent 技术已经准备就绪,但企业尚未做好准备。(来源: Stanford’s AI Report Card: Agents Are Ready. Companies Are Not, Forbes, 2026-04-14) 这个观察可以推广到更宏观的层面:AI 的技术能力已经准备就绪,但整个社会——包括企业、政府、教育体系、社会保障体系——都没有准备好。

这种「AI 治理赤字」的根源之一,恰恰是认知分裂本身。当专家和公众对 AI 的基本判断存在如此巨大的分歧时,制定有效的 AI 治理政策几乎是不可能的:

  • 如果政策制定者听从专家意见,采取宽松的监管立场,公众会认为政府被科技精英俘获。
  • 如果政策制定者回应公众焦虑,采取严格的限制措施,专家会认为政府在扼杀创新。
  • 如果政策制定者试图走中间路线,两边都不满意。

这就是认知分裂的系统性风险:它不仅影响个人的态度和行为,还瘫痪了社会的集体决策能力。

6.3 信任塌陷的连锁反应

公众对 AI 的低信任度,如果持续恶化,可能引发一系列连锁反应:

第一,消费者抵制。 当公众不信任 AI 时,他们可能拒绝使用 AI 驱动的产品和服务,或者在被迫使用时产生强烈的负面情绪。这会影响 AI 产品的商业化进程和企业的投资回报。

第二,人才供给萎缩。 如果年轻人看到的 AI 叙事是「AI 会抢走你的工作」而非「AI 创造新的机会」,他们可能不会选择进入 AI 相关领域学习和工作。这对 AI 产业的长期人才供给是一个潜在威胁。

第三,监管过度反应。 政治家会利用公众的 AI 焦虑来推动可能过于严厉或设计不当的监管措施,最终伤害到 AI 的有益应用。

第四,社会运动。 如果 AI 导致的就业冲击持续扩大,而收益分配持续不均,可能催生新形式的社会运动——类似于历史上的劳工运动,但针对的是算法和自动化。

这些不是遥远的假设场景。它们是 53% 采用率搭配 21% 支持率这一史无前例的组合的逻辑延伸。


第七章:弥合鸿沟——不是靠科普,而是靠利益再分配

7.1 「科普解决一切」的幻觉

面对 AI 认知分裂,硅谷和学术界最常开出的药方是「更好的 AI 教育」和「更多的公众沟通」。Stanford HAI 自身的使命也包含「以人为中心的 AI」教育和推广。

这些努力是有价值的,但如果我们认为认知分裂的根源是信息不对称,那么教育就是解药;如果根源是利益不对等,那么教育充其量是止痛药。

让我们做一个思想实验:假设我们成功地让每一个美国人都深入理解了 Transformer 架构的工作原理、大语言模型的训练过程、以及 AI 在科学研究中的潜力。这会改变他们对 AI 经济影响的判断吗?

不会。因为一个深入理解 AI 技术的初级文案写手,只会更清楚地认识到自己的工作正在被 AI 替代。一个理解机器学习原理的初级数据分析师,只会更准确地评估自己被自动化的时间表。

知识不能替代利益。当人们说「AI 对经济不好」时,他们说的不是 GDP 增长率,而是「AI 对我的经济状况不好」。 这是一个分配问题,不是一个认知问题。

7.2 利益再分配的具体路径

如果弥合认知分裂的关键在于利益再分配,那么具体的政策路径是什么?

第一,AI 生产力收益的共享机制。 当企业通过 AI 实现了生产力的大幅提升时,这些收益不应该完全流向股东和高管。可能的机制包括:AI 相关利润的额外税收、强制性的员工利润分享计划、或者将 AI 节省的人力成本的一定比例用于员工再培训。

第二,过渡期保障。 AI 导致的职业转型不是一夜之间发生的,但它的速度远超传统的经济结构调整。需要专门针对 AI 驱动的职业转型设计过渡期保障——不是泛泛的失业保险,而是包含收入补贴、技能培训、职业咨询的综合支持包。

第三,入门级岗位的重新设计。 如果 AI 正在压缩传统的入门级岗位,那么企业和教育机构需要共同设计新型的入门路径——可能是「AI 协作型」的初级岗位,让新人在 AI 辅助下更快地进入高价值工作,而不是简单地被 AI 替代。

第四,AI 决策的透明度和可问责性。 公众对 AI 的不信任,部分来源于 AI 系统的不透明性。当 AI 影响到人们的就业、信贷、保险等关键决策时,受影响者应该有权了解 AI 是如何做出决策的,以及在决策不公时有有效的申诉渠道。

7.3 从「AI for AI people」到「AI for everyone」

Stanford HAI 报告的最大价值,可能不在于它记录的技术进步数据,而在于它用数据证明了一个不舒服的事实:AI 目前主要是为 AI 人群服务的。

AI 的经济收益集中在技术精英和资本方手中。AI 的叙事由技术精英主导。AI 的政策讨论由技术专家和产业游说者主导。AI 的风险和成本由更广泛的社会承担。

69% vs 21%,73% vs 23%,84% vs 44%——这些数字不是「公众需要被教育」的证据,而是「AI 的利益分配需要被重构」的证据。


结语:So What——这对你意味着什么

如果你是 AI 从业者或投资者,Stanford AI Index 2026 的认知分裂数据应该让你警醒,而不是让你更加自信。公众的低信任度不是一个可以忽略的「公关问题」——它是一个可能导致监管反弹、消费者抵制和政治干预的系统性风险。历史上,每一次技术革命中忽视公众情绪的产业,最终都付出了高昂的代价。

如果你是政策制定者,这份报告告诉你的最重要的事情是:不要只听专家的。 69% 的专家乐观是真实的,但它是位置性的。21% 的公众支持率也是真实的,而且它代表了更广泛的社会现实。有效的 AI 治理需要同时回应技术的潜力和公众的焦虑,而不是在两者之间选择一个。

如果你是普通的知识工作者,尤其是处于职业早期或中期的人,这份报告的信号是明确的:AI 对就业的冲击不是未来时态,而是进行时态。入门级岗位下降 20% 不是一个预测,而是一个已经发生的事实。你需要的不是恐慌,而是战略性地思考如何在沙漏型就业结构中定位自己——向上移动到 AI 难以替代的高价值工作,或者横向移动到需要深度人际互动和物理操作的领域。

如果你是教育工作者或学生,沙漏型就业结构意味着传统的「学一个专业、做一辈子」的模式已经彻底过时。未来的职业安全不在于你掌握了什么特定技能,而在于你学习新技能的速度和适应变化的能力。

最后,48 个百分点的认知鸿沟告诉我们一个更深刻的道理:在技术变革中,谁在说话和他们站在什么位置,与他们说了什么同样重要。 当 AI 专家告诉你 AI 是好的,他们可能是对的——但他们说的「好」,指的是对他们好。当公众说 AI 令人担忧时,他们也可能是对的——因为他们说的「担忧」,指的是对他们的担忧。

两个平行宇宙不会自动合并。弥合它们需要的不是更多的 AI 演示和科普讲座,而是让 AI 的收益真正惠及那 79% 目前不认为 AI 对经济有利的人。这不是一个技术问题,而是这个时代最重要的政治经济问题。


参考资料

  1. Stanford report highlights growing disconnect between AI insiders and everyone else — TechCrunch, 2026-04-13
  2. Stanford’s annual AI report finds a gap between AI insiders and everyone else — The Next Web, 2026-04
  3. Stanford AI Index Flags Growing Divide Between AI Experts and the Public — GeniusFirms, 2026-04
  4. Generative AI Hits 53% Adoption in 3 Years, Outpacing PC and Internet — How2Shout, 2026-04
  5. AI’s surge is widening gaps in trust and policy — The Deep View, 2026-04
  6. Stanford AI Report: 84% of Experts See AI Benefits in Healthcare, Only 44% of Americans Agree — KuCoin News, 2026-04
  7. Stanford’s AI Report Card: Agents Are Ready. Companies Are Not — Forbes, 2026-04-14
  8. Stanford’s AI Index 2026 shows rapid progress, growing safety concerns, and declining public trust — The Decoder, 2026-04

主题分类:劳动力变革