从投票到燃烧弹:AI 反弹暴力化的历史拐点,以及三种叙事为什么都失败了
从投票到燃烧弹:AI 反弹暴力化的历史拐点,以及三种叙事为什么都失败了
2026年4月11日凌晨,有人向 Sam Altman 在旧金山的住所扔了燃烧弹。
周日,又有2人因在同一地点附近开枪而被捕(目前尚不清楚是否与 Altman 本人有关)。
几天前,印第安纳州一名州议员的住所窗户被击穿,现场留下字条:”No Data Centers”。
这些事件不是孤立的愤怒发作。它们是一个更大的社会反应的极端化表现——一个由数据支撑的、正在加速的公众与 AI 行业之间的撕裂。
了解这场撕裂,需要先看数字,再看叙事,最后才是真正的问题所在。
第一章:数据说话——AI 的公众认可度正在崩塌
几组来自权威机构的近期调查数据,清晰地描绘了这场民心背离的规模:
NBC News 民调(2026年3月):仅有26%的美国选民对 AI 持正面看法,46%持负面看法。这个结果让 AI 成为美国民调中知名度最高、好感度最低的词汇之一——根据 Fortune 的报道,在同一调查中,AI 的好感度只比民主党和伊朗高。这是一个极端的位置:技术公司通常享有中等以上的公众好感度,而 AI 已经降到了政治极化和地缘政治对立的级别。
Gallup 调查(2026年4月):Z 世代对 AI 的兴奋度在一年内从36%暴跌至22%,同期愤怒情绪从22%上升至31%。Gallup 指出,这一转变的主要驱动因素是对就业的恐惧——Z 世代已经目睹了大量入门级工作被削减或需要 AI 技能,在他们职业起步阶段遭遇了 AI 带来的就业市场结构性压力。
数据中心反弹:2025年4月至6月,总计20个拟建数据中心项目(涉及投资总额约 980 亿美元)因社区反对被搁置或延迟。纽约州提出了一项三年期暂停新建数据中心许可证的立法提案。这不只是环境主义者的抗议,而是越来越多社区居民将 AI 基础设施建设与水电消耗、噪音污染、电网压力和”AI 带来的失业”直接挂钩后,产生的政治行动。
关键背景:在这个同样的时间段里,OpenAI 发布了 ChatGPT 4o,Anthropic 发布了 Claude 3.7,Google 发布了 Gemini Ultra 2。从技术进步的角度,AI 行业正在经历历史上最快的能力跃升期。但公众的感受正好相反:能力越强,恐惧越深。
第二章:三种叙事的失败——Altman、Amodei、Pichai 的各自为政
为什么公众恐惧在 AI 能力快速提升的同时也在快速加深?Axios 的分析指出了一个深层原因:AI 行业最有影响力的三位领导者,正在向公众发出三种互相矛盾的信号。
Altman 的叙事:无法停止的权力之戒
Sam Altman 使用了”权力之戒”(One Ring)这个比喻来描述 AI——既是无比强大的力量,也是无法放弃、必须掌握的东西。他的核心论点是:AI 的到来是不可逆转的,试图阻止它毫无意义,唯一理性的选择是主导它、引导它,让它造福人类。
这个叙事有一定的内在逻辑,但从公众沟通的角度,它犯了一个根本性的错误:它同时传递了”AI 无限强大”和”没有人能阻止它”两个信息。对于一个已经对 AI 感到担忧的普通人,这个叙事不是安慰,而是恐吓——它说明了担忧是有道理的,同时说明了没有任何机制可以保护他们。
Amodei 的叙事:我们在构建可能消灭人类的东西
Dario Amodei 多次公开描述 AI 的潜在存在性风险——AI 可能帮助恶意行为者构建生物武器,可能在某些场景下失控,可能比核武器更危险。Anthropic 刚刚发布了名为”Mythos”的网络安全专用模型,在发布声明中明确说它”太危险,不能向公众开放”。
这种激进的安全叙事有其战略意图:通过强调风险来建立 Anthropic 作为”负责任 AI 开发者”的品牌,与 OpenAI 的”快速移动”风格区分。从商业角度,这是有效的差异化;从公众沟通角度,这是在每次产品发布时向全社会发出警告信号:我们在构建危险的东西。
Altman 在多个场合对这种营销策略提出批评:”不能一边声称自己在开发人类历史上最危险的技术,一边期待公众对此感到平静。”这个批评在逻辑上是正确的,尽管它来自一个同样在强调 AI 无比强大的人。
Pichai 的叙事:AI 只是现有产品的延伸
Sundar Pichai 采取了最温和的路线——将 AI 呈现为”现有 Google 产品的自然延伸”,强调渐进式改进和用户熟悉的场景。在他的叙事中,AI 不是革命,而是进化;不是威胁,而是更好的搜索、更好的邮件、更好的工作助手。
这个叙事的优点是平静,缺点是与现实脱节。当公众在新闻中看到 AI 导致裁员、AI 被用于深度伪造、AI 模型在某些能力上超越人类专家时,”AI 只是更好的搜索”的叙事显得苍白甚至带有欺骗性。
更深层的问题是:这三种叙事在某种程度上都是真实的——AI 确实是不可阻挡的强大力量(Altman 没错);AI 确实有真实的安全风险(Amodei 没错);AI 确实在改善我们日常使用的产品(Pichai 没错)。但三种真实同时存在,却没有任何人提供一个整合性的框架,告诉公众这三种真实如何共存、如何取舍、谁来负责保护最容易受到影响的那部分人。这种整合性叙事的缺席,才是公众信任危机最深层的根源。
在有效的公共治理中,当一个新技术带来多方面影响时,负责任的做法是:承认好处,也承认坏处,同时提出具体的保护机制。AI 行业目前做到了前两点(有时甚至过于强调坏处以服务品牌目的),但对第三点——具体的保护机制——的回应严重不足。
第三章:叙事分裂的结构性后果
三种不同叙事并非只是沟通策略上的差异,它们产生了真实的、可测量的社会后果。
恐惧与混乱的乘法效应:当三位行业最具影响力的领导者向同一公众发出关于同一技术的三种不同、甚至互相矛盾的信号时,这个公众不会取平均值来理解 AI。相反,他们倾向于接受最令人担忧的那个版本——这是一种有进化基础的认知偏见,叫做”负面偏见”(negativity bias)。Altman 的”不可阻挡”和 Amodei 的”可能消灭人类”结合在一起,产生的公众感受接近于:有人正在构建一个没有人能阻止的危险东西。
可信度赤字:当两个同行领导者互相暗示对方不诚实(Altman 批评 Amodei 用恐惧营销,Amodei 暗示 Altman 对风险不够重视),普通公众从这场争论中得到的不是”哪个更对”的答案,而是”这些人都不可信”的整体印象。可信度赤字一旦形成,就很难通过任何单一的公众沟通行动来修复。
监管和政治行动的倒逼:在公众恐惧、行业叙事混乱的背景下,政治人物有明确的激励去采取”反 AI”的立场——这在选票上是安全的,不需要技术细节,而且与直觉上担忧的选民对齐。数据中心项目被叫停、州立法禁令提案,都是这种政治逻辑的体现。
第四章:历史的回声——卢德运动不是关于无知
在分析 AI 反弹时,业界有一个流行的解释框架:公众之所以反对 AI,是因为他们不理解 AI,是因为媒体的误导和算法恐惧。这个框架本质上把反 AI 情绪归因为”认知缺陷”——如果人们受教育程度更高、理解更深,他们就不会那么恐惧。
这个框架有一个历史上著名的反例:19世纪英国的卢德运动。
1811年至1816年间,英国纺织工人组成了被称为”卢德派”的运动,破坏自动化纺织机器。他们被当时的精英阶层和历史教科书记录为”无知的暴徒,不理解工业革命的进步意义”。
但历史学家的重新研究表明,这个描述是错误的。卢德派工人非常了解机器的运作方式——许多人本人就是熟练的纺织技工。他们反对机器,不是因为无知,而是因为机器在当时的经济制度下确实让他们的生活变得更糟:工资下降、工时增加、学徒制度崩溃、技能贬值。他们的反抗不是对技术的无知,而是对技术带来的具体分配后果的理性回应。
今天的 AI 反弹有着惊人相似的结构:
受影响的群体(入门级员工、创意工作者、客服人员、数据标注工人)经历的不是抽象的技术担忧,而是具体的就业压力和收入下降。Gallup 的调查已经证实,Z 世代对 AI 愤怒的主要驱动因素就是就业恐惧——这是完全理性的经济担忧,而非无知。
数据中心反对的社区不是对技术无知——他们对数据中心的水电消耗、电网压力、噪音有具体的技术了解,他们反对的是这些具体影响在没有适当补偿和参与权的情况下被强加在他们的社区上。
当 AI 行业将这种反弹解释为”公众无知”时,它犯了与19世纪工厂主相同的错误:用认知层面的解释来替代分配层面的讨论,从而回避了真正需要回答的问题。
卢德运动还有一个被遗忘的结局:卢德派工人最终被英国军队镇压,领袖被处决或流放。但十年内,工会运动兴起,几十年后劳动保护法律逐步建立,工业革命的受益面最终扩展到了更广泛的工人阶层。卢德派输了眼前的战斗,但他们提出的问题——技术进步的分配正义——在后来的历史中得到了某种程度的回应。
今天的 AI 反弹也会如此。极端化的个体行为不会胜利,但他们指向的结构性问题——谁来保护那些在 AI 浪潮中受损的人——终究需要在政策层面得到回答。越早回答,社会代价越小。
第五章:暴力化意味着什么
向 Altman 住所扔燃烧弹的人留下了一份宣言,警告 AI 将导致人类”灭绝”。
这是极端主义的语言,与 AI 反弹的主流情绪有重要的区别——主流公众的担忧是失业、隐私、社会不平等,而不是存在性灭绝。但这种极端主义的出现,是主流情绪未被有效处理的后果之一。
社会学研究表明,政治和社会运动向暴力升级,通常需要以下条件的组合:
- 一个真实的受害群体(有具体的物质损失)
- 清晰的”加害方”叙事(能被识别的负责任实体)
- 常规政治渠道的无效性(感到无法通过投票或请愿改变任何事情)
- 一小部分愿意承担行动风险的激进化个体
2026年的 AI 反弹四个条件都已存在。主流层面还不至于出现有组织的暴力运动,但单独行动者的激进化将持续是现实风险。
AI 行业对这种风险的典型回应是加强安保——这是必要的,但不是充分的。真正能够降低这种风险的,是让公众感到他们的担忧被听到、他们的利益被考虑、他们对 AI 发展有某种形式的参与权。这需要的不是公关活动,而是治理机制的实质性改变。
第六章:修复叙事——有没有可能
Altman、Amodei、Pichai 三人都意识到公众信任危机的存在,都在用各自的方式回应。但从现有的回应来看,效果有限,原因很清晰:他们在用叙事工具来解决一个实质性问题。
公众的担忧不只是信息理解问题,更是分配正义问题。AI 带来的效率红利如何在经济中分配?受到影响的工人有什么支持机制?社区对数据中心建设有什么真实的参与权?这些问题,不能靠更好的叙事来回答,只能靠具体的政策和制度安排。
有几个方向,如果 AI 行业愿意主动推动,可能有所帮助:
一、主动参与再就业培训资金:AI 公司共同建立一个实质性的工人转型基金——不是象征性的,而是与其营收规模相称的。历史上有一个相对成功的参照:丹麦的”灵活安全”(Flexicurity)模式,在1990年代结合了劳动力市场的高度灵活性(容易解雇)和全面的社会安全网(高失业补偿、积极再培训),使丹麦成功应对了制造业自动化带来的就业冲击,失业率保持在低位。AI 行业的规模和营收,足以资助类似的转型支持机制,但目前这方面的行动远远落后于 AI 的营收增长速度。
二、数据中心社区参与标准:自愿(或在监管压力下)建立社区影响评估和参与标准,在数据中心选址过程中给予受影响社区真实的发言权和可执行的补偿机制。这不是对 AI 发展的阻碍,而是减少社会阻力的投资。
三、统一公共沟通立场:这是最难的,因为它需要竞争对手之间的协调。但 AI 行业的几家主要公司,在涉及公众安全和信任的核心叙事上,有共同的利益建立一套基本的统一表述标准——而不是各自强调最有利于自己品牌定位的那部分。
结语:这不是 AI 的认知问题,而是 AI 的分配问题
2026年4月,向 Sam Altman 住所扔燃烧弹的人是一个极端化的个体,他的行为是不可接受的,也不能代表任何集体。
但支撑这种极端化的土壤——26%的正面好感度、Z世代热情的崩塌、$980亿数据中心项目的群体反对——这些数字是真实的,是数以百万计的普通人做出的理性判断的结果。
这场反弹的规模和加速,不是 AI 行业可以通过更好的公关叙事来化解的。它需要的是:承认 AI 确实在带来某些具体的损失(不是只说”从长远看对所有人都好”);建立机制让那些受到影响的人有具体的补偿和参与权;停止用”公众无知”来解释公众的理性担忧。
Altman、Amodei、Pichai 三人的叙事各有其内在逻辑,也各有其局限。但他们共同的盲点是:他们都在讨论 AI 的”宏大叙事”(造福人类/安全风险/渐进进步),而公众此刻需要的是关于”具体影响和具体保护”的清晰答案。
在卢德运动之后,英国花了几十年,通过工会运动、劳动法改革和社会保障体系的建立,才真正解决了工业化带来的分配问题。AI 行业没有几十年,现在就需要开始认真讨论这些机制。
否则,向 Altman 住所扔燃烧弹的事件,不会是最后一次。
2026年4月的事件,将成为 AI 公众信任史上的一个重要注脚。——不是因为一场暴力事件,而是因为数字首次清晰地显示,技术的公众信任危机已经到了一个临界点。在这之前,AI 行业可以将批评者定性为”担忧者”和”进步的反对派”;在这之后,无法再忽视的现实是:数以亿计的普通用户正在以他们自己的方式——通过民调数字、通过数据中心项目的政治阻力、通过越来越激进的行动——表达他们的判断。
AI 行业选择如何回应这个判断,将决定未来五年 AI 技术能以什么样的方式被社会接受和整合。这是一个关乎整个行业命运的战略选择,不只是公关部门的议题。
从长远来看,AI 技术对人类的整体影响很可能是积极的——生产力提升、科学突破、医疗进步、环境技术突破。但”从长远来看”从来不是回应眼前具体受害者的有效答案。那些在今天因 AI 而失去工作、因数据中心建设而失去社区安宁、因 AI 生成内容而面临竞争压力的人,他们的损失是现实的,他们的愤怒是有道理的。
如何在 AI 快速发展的速度和公众的承受能力之间找到可持续的平衡,是2026年 AI 行业最重要的非技术挑战。
参考资料
- Fortune: “Anti-AI sentiment is rising and it’s starting to turn violent” (2026-04-16) — https://fortune.com/2026/04/16/anti-ai-sentiment-is-rising-and-its-starting-to-turn-violent/
- NBC News Poll on AI (March 2026) — https://www.nbcnews.com/politics/politics-news/poll-majority-voters-say-risks-ai-outweigh-benefits-rcna262196
- Gallup: “Gen Z AI adoption steady, skepticism climbs” (April 2026) — https://news.gallup.com/poll/708224/gen-adoption-steady-skepticism-climbs.aspx
- Axios: “AI’s narrative crisis: Altman, Amodei, Pichai” (2026-04-16) — https://www.axios.com/2026/04/16/ai-industry-narrative-altman-amodei-pichai