2026年4月的一个夜晚,旧金山,一枚自制莫洛托夫鸡尾酒划过弧线,砸向OpenAI CEO Sam Altman的住宅外墙。火焰在建筑表面短暂绽放,随即被扑灭。投掷者是一名20岁的男性,被执法部门描述为”AI doomer”——一个相信人工智能将导致人类毁灭的激进反AI分子。(来源: Fortune, 2026-04-13)

这不是一次醉酒后的冲动行为,也不是一次随机的财产犯罪。根据检方指控,嫌疑人持有一份AI行业高管的”目标名单”(hit list),并在被捕时随身携带一份反AI宣言。(来源: Implicator.ai, 2026-04-13; SF Chronicle, 2026-04-13) 联邦检察官以谋杀未遂罪对其提起诉讼。(来源: AP News, 2026-04-13)

这枚燃烧弹的物理杀伤力有限,但它的符号意义巨大。它标志着一个临界点:围绕人工智能的社会焦虑,第一次以明确的意识形态驱动、定向针对行业领袖的实体暴力形式爆发。

过去3年,我们见证了AI怀疑论从学术圈的谨慎论文,演变为社交媒体上的末日meme,再到数字抵制运动(如我们此前在《Z世代的AI破坏运动》中分析的行为经济学驱动的软性抵抗)。但一枚燃烧弹与一次Twitter上的#BoycottOpenAI标签之间,存在一道巨大的鸿沟。这道鸿沟是如何被跨越的?从键盘上的愤怒到街头的火焰之间,究竟发生了什么?

这是本文试图回答的核心问题。答案不在于一个20岁年轻人的个人心理病理,而在于一条可辨识的、有历史先例的社会激进化路径——一条从合理关切到末日叙事、从抽象恐惧到具体仇恨对象、从在线回音室到实体暴力的心理阶梯。


第一章:燃烧弹之夜——一次带有意识形态签名的定向攻击

让我们从已知事实开始。

2026年4月,一名20岁男性向Sam Altman位于旧金山的住宅投掷了一枚莫洛托夫鸡尾酒(即自制燃烧弹)。(来源: Fortune, 2026-04-13) 这是一种制作门槛极低但象征意义极强的武器——在全球抗议运动史上,莫洛托夫鸡尾酒几乎是”草根暴力”的代名词,从芬兰冬季战争到巴黎1968年学生运动,它始终是”弱者对强者”叙事的物质载体。

嫌疑人的选择不是偶然的。

根据多家媒体援引的法庭文件,嫌疑人在其个人文件中明确表达了对人工智能技术的反对立场。NBC News报道称,法庭文件显示嫌疑人在其”著述”中反对AI。(来源: NBC News, 2026-04-13) 更令人警觉的是,检方指控嫌疑人持有一份AI行业高管的”目标名单”。(来源: Implicator.ai, 2026-04-13) 这意味着Altman可能不是唯一的潜在目标,而是名单上的一个名字——或许是最显眼的那个。

SF Chronicle进一步报道,FBI在对嫌疑人的搜查中发现了一份”反AI宣言”。(来源: SF Chronicle, 2026-04-13) 宣言(manifesto)这个词本身就承载着沉重的历史重量——从Ted Kaczynski(”大学炸弹客”)的《工业社会及其未来》到Brenton Tarrant的在线宣言,几乎每一次意识形态驱动的暴力行动背后,都有一份试图将个人暴力升华为”历史使命”的文本。

TechSpot的报道还揭示了一个额外的细节:Altman的旧金山住宅不仅遭到了莫洛托夫鸡尾酒袭击,还在另一起独立事件中遭到了枪击。(来源: TechSpot, 2026-04-13) 两起独立攻击指向同一个地址,这不是巧合的叠加,而是一个信号——Sam Altman作为AI产业最具辨识度的”面孔”,正在成为反AI情绪的聚焦靶心。

联邦检察官对嫌疑人提出了谋杀未遂的指控。(来源: AP News, 2026-04-13) 这一指控的严重性表明,执法部门将此事件定性为远超”财产破坏”的暴力犯罪。Washington Post的报道也确认了这一指控。(来源: Washington Post, 2026-04-13)

关键事实的拼图: 一名20岁男性,持有反AI宣言,维护着一份AI高管目标名单,选择了AI产业最具象征意义的人物作为攻击对象,使用了抗议运动史上最具”革命”象征的武器。每一个要素都指向同一个结论:这是一次经过预谋的、意识形态驱动的定向暴力行动。

这不是”疯子的随机行为”。这是一种叙事的产物。


第二章:从AI焦虑到AI末日论——在线激进化的心理阶梯

要理解一枚燃烧弹的起源,我们需要回溯一条心理路径。这条路径不始于火焰,而始于恐惧。

第一级台阶:合理的焦虑

对AI的担忧并非无中生有。自2022年底ChatGPT发布以来,AI对就业市场的冲击已从预测变为现实。从好莱坞编剧罢工到新闻编辑室裁员,从客服中心自动化到法律文书生成,AI正在以前所未有的速度重塑劳动力市场的版图。

这种焦虑是合理的、有据可查的、值得认真对待的。它是民主社会中正常的政策讨论素材。

但合理的焦虑和投掷燃烧弹之间,还有很长的距离。

第二级台阶:末日叙事的放大器

AI焦虑在过去3年中经历了一次关键的叙事变异:从”AI可能导致某些工作消失”(一个可管理的政策问题)升级为”AI将导致人类灭绝”(一个存在性威胁)。

这种升级并非完全来自边缘群体。AI安全领域的严肃研究者——包括Geoffrey Hinton、Yoshua Bengio等图灵奖得主——都曾公开表达对AI存在性风险(existential risk, x-risk)的担忧。2023年,数百名AI研究者签署了一份声明,将AI灭绝风险与核战争和大流行病并列。

问题在于,学术界的审慎讨论在社交媒体的传播链中被系统性地扭曲了。一位研究者说”我们应该认真考虑AI对齐问题”,经过Twitter的信息压缩和算法放大后,变成了”顶级科学家警告AI将毁灭人类”。审慎变成了恐慌,概率评估变成了确定性预言。

“AI doomer”亚文化正是在这个叙事放大过程中形成的。这个群体将AI存在性风险视为几乎确定的未来,将AI发展视为一场”物种级别的赌博”,将推动AI发展的公司和个人视为”人类的叛徒”。

第三级台阶:从抽象恐惧到具体仇恨对象

这是激进化路径中最关键的一步——也是最危险的一步。

抽象的恐惧(”AI可能危害人类”)很难转化为行动。人类的心理系统不擅长对抽象威胁做出即时反应。但当抽象恐惧被赋予一张具体的面孔时,一切都变了。

Sam Altman就是那张面孔。

作为OpenAI的CEO,Altman在过去3年中成为了全球AI产业最具辨识度的个人品牌。他频繁出现在国会听证会上、杂志封面上、播客节目中。他的名字与ChatGPT、GPT-4、GPT-5紧密绑定。对于AI末日论者来说,Altman不仅仅是一个商业领袖——他是”AI威胁”的人格化身,是”人类灭绝”的推手,是一个可以被定位、被追踪、被攻击的具体目标。

这种”人格化”过程在激进化研究中有一个术语:目标人物化(target personalization)。恐怖主义研究者早已发现,几乎所有从意识形态信念到实体暴力的跃迁,都需要经过这一步——将抽象的”敌人”(资本主义、西方文明、科技霸权)浓缩为一个具体的人。

嫌疑人持有的”AI高管目标名单”,正是这一心理过程的物质证据。(来源: Implicator.ai, 2026-04-13)

第四级台阶:在线回音室中的”英雄叙事”

Frontiers in Political Science在2025年发表的一篇研究论文专门探讨了人工智能在激进化、招募和恐怖主义宣传中的角色。(来源: Frontiers in Political Science, 2025) 这项研究揭示了一个令人不安的闭环:AI技术本身正在被用来加速反AI(以及其他极端主义)的激进化过程。算法驱动的内容推荐系统将用户推入越来越极端的信息茧房;AI生成的内容降低了宣传材料的制作门槛;社交媒体平台的设计逻辑奖励极端表达。

在这些回音室中,一个关键的叙事转换发生了:暴力行动者从”罪犯”被重新编码为”英雄”。当你相信人类面临灭绝威胁,而”正常渠道”(投票、抗议、请愿)无法阻止这一威胁时,暴力就获得了道德正当性。投掷燃烧弹不再是犯罪,而是”拯救人类的勇敢行动”。

嫌疑人的反AI宣言,几乎可以肯定包含了这种自我英雄化的叙事。(来源: SF Chronicle, 2026-04-13) 这不是猜测——这是几乎所有意识形态驱动暴力的共同特征。

核心洞察: 从合理焦虑到燃烧弹,这条路径上的每一步都有其内在逻辑。没有人在一夜之间从”我担心AI会影响我的工作”跳跃到”我要用燃烧弹攻击AI公司CEO”。激进化是一个渐进过程,而数字时代的信息环境——算法推荐、回音室效应、极端内容的低摩擦传播——正在以前所未有的速度压缩这个过程。


第三章:卢德主义2.0——历史不会重复,但会押韵

将2026年的这枚燃烧弹置于更长的历史坐标中,一个令人不安的模式浮现出来。

3.1 第一次:1811-1816年,英国卢德运动

19世纪初,英国中部和北部的纺织工人面临一场生存危机。新型织布机和剪绒机的引入正在系统性地摧毁手工纺织工人的生计。1811年,以虚构人物”Ned Ludd”为名,工人们开始有组织地砸毁工厂中的机器。

卢德运动的结构值得仔细拆解:

  • 触发因素: 技术变革导致的真实经济损失(手工纺织工人的收入和就业机会急剧下降)
  • 叙事框架: 机器被定义为”敌人”,工厂主被定义为”背叛者”
  • 暴力形式: 从财产破坏(砸毁机器)逐步升级到人身攻击(工厂主遇袭)
  • 行动者自我叙事: 不是犯罪,而是”正义的反抗”——保卫社区、保卫生计、保卫一种生活方式
  • 结局: 英国政府调动了比同期拿破仑战争更多的军队来镇压卢德运动。机器没有被阻止。工业革命继续推进。但社会最终发展出了工会、劳动法、社会保障体系等”减压阀”

3.2 第二次:1980-2000年代,美国反堕胎暴力

1973年Roe v. Wade判决后,美国反堕胎运动经历了一条清晰的激进化路径:

  • 第一阶段(1970s-1980s): 合法抗议、游行、请愿、政治游说
  • 第二阶段(1980s-1990s): 堕胎诊所封锁、骚扰患者和医护人员
  • 第三阶段(1990s-2000s): 诊所爆炸、纵火、医生遇刺(1993年David Gunn医生被枪杀,1998年Barnett Slepian医生在家中被狙杀)

反堕胎暴力的结构同样值得拆解:

  • 触发因素: 深层道德信念(”堕胎是谋杀”)与法律现实(堕胎合法化)之间的不可调和矛盾
  • 叙事框架: 堕胎医生被重新编码为”杀婴者”,诊所被定义为”屠宰场”
  • 关键转换: 当”正常渠道”(立法、司法)被认为已经失败,暴力获得了道德正当性——”如果法律不能阻止谋杀,那么我有道德义务用其他方式阻止”
  • 行动者自我叙事: 不是恐怖分子,而是”未出生婴儿的保护者”
  • 目标人物化: 从抽象的”堕胎产业”到具体的医生个人——姓名、地址、日常路线

3.3 第三次:2024-2026年,反AI暴力

现在,将这个结构框架叠加到Altman遇袭事件上:

  • 触发因素: AI技术变革引发的真实经济焦虑与存在性恐惧
  • 叙事框架: AI被定义为”人类灭绝的工具”,AI公司CEO被定义为”人类的叛徒”
  • 暴力形式: 燃烧弹攻击、枪击(TechSpot报道的独立事件)(来源: TechSpot, 2026-04-13)
  • 行动者自我叙事: 反AI宣言——不是犯罪,而是”拯救人类”(来源: SF Chronicle, 2026-04-13)
  • 目标人物化: AI高管目标名单(来源: Implicator.ai, 2026-04-13)

三次运动的结构对比表:

维度 卢德运动 (1811) 反堕胎暴力 (1990s) 反AI暴力 (2026)
核心恐惧 经济生存 道德/宗教信念 经济+存在性
攻击对象 机器→工厂主 诊所→医生 ?→CEO
叙事正当性 保卫生计 保卫生命 保卫人类物种
激进化周期 数年 约20年 约3年
信息传播 口耳相传 传单+广播 社交媒体+算法

最关键的差异在最后一行。 卢德运动的激进化依赖面对面的社区网络,周期以年计。反堕胎运动的激进化通过教会网络和地下出版物传播,周期以十年计。而反AI激进化通过社交媒体的算法推荐系统传播,周期被压缩到了令人震惊的程度——从ChatGPT发布(2022年11月)到这枚燃烧弹(2026年4月),仅仅3年多。

这就是数字时代激进化的本质特征:速度。算法不区分”合理关切”和”末日恐慌”,它只优化参与度(engagement)。而恐惧、愤怒和末日叙事,恰恰是参与度最高的内容类型。

Frontiers in Political Science的研究正是指向了这一点:AI技术本身正在加速各种形式的激进化过程,包括反AI激进化。(来源: Frontiers in Political Science, 2025) 这是一个深刻的讽刺——也是一个危险的正反馈循环。

3.4 大多数人没看到的:「末日叙事的道德许可证」

这是本文试图触达的第三层洞察。

三次运动共享一个隐藏的结构性特征:末日叙事为暴力颁发了道德许可证。

当你相信”机器正在摧毁我们的社区”(卢德),”婴儿正在被屠杀”(反堕胎),或”AI将导致人类灭绝”(反AI),暴力就不再是暴力——它变成了”紧急状态下的正当防卫”。

这种道德许可证的威力在于,它允许行动者绕过正常的道德约束。大多数人不会向另一个人的住宅投掷燃烧弹,因为他们的道德系统将此归类为”不可接受的暴力”。但如果你真心相信那个人正在推动一项将导致所有人类死亡的技术,那么一枚燃烧弹就变成了”比例适当的反应”——甚至是”远远不够的反应”。

这就是为什么嫌疑人的”反AI宣言”如此重要。(来源: SF Chronicle, 2026-04-13) 宣言不仅仅是动机的记录,它是道德许可证的文本形式。它是行动者说服自己的工具——”我不是罪犯,我是英雄。我不是在犯罪,我是在拯救世界。”

而这正是AI末日论(AI doomerism)最危险的地方: 不是因为它的技术分析一定是错的(AI安全确实是一个值得严肃对待的问题),而是因为当”人类灭绝”成为叙事框架时,几乎任何暴力都可以被合理化。如果赌注是”整个人类物种的存亡”,那么一个人的生命——哪怕是Sam Altman的生命——在功利主义计算中就变得微不足道。

这是一个极其危险的逻辑滑坡。而社交媒体的回音室正在以工业化的效率生产这种滑坡。


第四章:AI产业的高速列车与被甩下的人——暴力背后的结构性张力

理解暴力的社会心理路径是必要的,但不够充分。我们还需要理解这种心理路径存在的结构性土壤——即AI产业本身的发展速度和规模。

产业加速的量化证据:

英伟达(NVIDIA)2026财年全年财报提供了一个精确的锚点。根据英伟达官方发布的数据:2026财年(截至2026年1月)全年营收为1304亿美元,同比增长114%。第四季度营收为393亿美元,同比增长78%。其中,数据中心业务全年营收达到1152亿美元,同比增长142%。(来源: NVIDIA官方财报, 2026)

让我们把这些数字放在语境中理解:

  • 1304亿美元的年营收意味着英伟达——一家芯片公司——的年收入已经超过了许多国家的GDP。
  • 114%的同比增长意味着这家公司的规模在一年内翻了一倍多。
  • 数据中心业务142%的增长直接反映了AI训练和推理算力需求的爆炸性扩张。

英伟达的财报不仅仅是一家公司的业绩报告——它是整个AI产业加速度的温度计。当数据中心业务以142%的速度增长时,它意味着全球的科技公司、云服务商、AI初创企业正在以前所未有的速度购买GPU来训练和部署AI模型。

根据BluTree AI汇编的2026年AI产业增长指标,AI行业的整体扩张速度仍在加速而非减缓。(来源: BluTree AI, 2026)

加速本身就是焦虑的放大器。

这是一个被广泛低估的动态:产业增长速度与社会焦虑之间不是线性关系,而是指数关系。当一个行业以20%的速度增长时,社会有时间适应——工人可以再培训,政策可以调整,社会规范可以演化。但当增长速度达到100%以上时,适应机制被压垮了。

想象一下:你是一名25岁的平面设计师,2024年你的工作还相对安全。2025年,AI图像生成工具开始侵蚀你的低端业务。2026年,你发现你的大部分客户已经转向AI工具,而你还没来得及学会新的技能。与此同时,你在新闻中看到英伟达的营收翻了一倍,OpenAI的估值不断攀升(截至本文发布时暂无公开的最新估值数据),AI公司的员工拿着六位数的薪水。

这种落差——产业的指数级增长与个人适应能力的线性增长之间的落差——正是焦虑的结构性来源。

而这种结构性张力对20岁年龄段的人群尤其致命。 嫌疑人的年龄——20岁——不是偶然的。(来源: Fortune, 2026-04-13) 这个年龄段的人正处于从教育到就业的过渡期,他们面临的不是”现有工作被AI取代”的恐惧,而是”我即将进入的整个劳动力市场正在被AI重塑”的存在性不确定感。他们没有积蓄作为缓冲,没有职业经验作为锚点,没有已建立的社会网络作为安全网。他们有的是大量的在线时间、对社交媒体算法的高度暴露、以及一个正在形成中的世界观——一个极易被极端叙事塑造的世界观。

两个对立视角的交锋:

视角A(产业乐观派): AI产业的高速增长正在创造大量新的就业机会和经济价值。英伟达1304亿美元的营收背后是数十万个直接和间接的工作岗位。AI不是在消灭工作,而是在重塑工作。历史表明,每一次重大技术革命最终都创造了比它摧毁的更多的就业机会。

视角B(结构性批评者): 增长的总量掩盖了分配的不均。AI产业创造的价值高度集中在少数公司、少数地区、少数技能类型中。英伟达的1152亿美元数据中心收入流向了硅谷和少数几个全球科技中心,而被AI取代的工作分散在全球各地的各行各业。”平均而言”的增长对一个失业的卡车司机或被AI取代的客服代表毫无意义。

我的判断: 两个视角都有部分正确性,但关键不在于”AI最终是否创造更多就业”这个长期问题,而在于过渡期的速度和痛苦程度。工业革命最终确实创造了比它摧毁的更多的工作——但这个”最终”花了50-80年,期间经历了大规模贫困、童工、城市贫民窟、以及(是的)卢德运动。

AI革命的过渡期可能更短(因为技术扩散更快),但过渡期的痛苦可能更集中(因为变化速度更快,适应窗口更窄)。而正是在这个高压的过渡期中,激进化找到了它的土壤。


第五章:激进化的数字加速器——算法如何将焦虑武器化

传统的激进化研究关注”激进化管道”(radicalization pipeline)——个体从温和观点逐步走向极端行动的路径。在前数字时代,这条管道通常需要物理性的社会网络:教会、工会、地下组织、监狱。激进化的速度受限于人际接触的频率和强度。

社交媒体彻底改变了这个等式。

算法推荐系统的”极端化偏见”已经被大量研究记录。YouTube的推荐算法曾被证明会将观看温和政治内容的用户逐步引导向极端内容;Facebook的群组推荐功能曾将用户推入越来越极端的政治群组。这不是算法的”恶意”,而是其优化目标(用户参与度/停留时间)的自然结果——极端内容比温和内容更能激发情绪反应,而情绪反应正是参与度的核心驱动力。

在反AI激进化的语境中,这条算法管道可能是这样运作的:

  1. 入口: 用户搜索”AI会取代我的工作吗?”——一个完全合理的问题
  2. 第一级推荐: 算法推荐关于AI就业影响的内容,混合了严肃分析和耸动标题
  3. 第二级推荐: 用户点击了耸动标题(因为恐惧驱动的点击率更高),算法学习到用户偏好”AI威胁”类内容,开始推荐更极端的材料
  4. 第三级推荐: 用户进入”AI存在性风险”内容领域,接触到”AI将导致人类灭绝”的末日叙事
  5. 第四级推荐: 用户加入反AI群组/论坛,进入回音室,接触到将AI公司CEO人格化为”敌人”的内容
  6. 第五级: 在回音室中,暴力行动被讨论、被合理化、被英雄化

Frontiers in Political Science的研究直接指向了这个问题:AI技术不仅是激进化的对象,也是激进化的工具。(来源: Frontiers in Political Science, 2025) 该研究探讨了AI在激进化、招募和恐怖主义宣传中的角色,揭示了一个深刻的悖论——反AI激进分子使用的社交媒体平台本身就由AI算法驱动,而这些算法正在加速他们的激进化过程。

数字时代激进化的3个独特特征:

速度: 传统激进化可能需要数年的面对面接触。在线激进化可以在数月甚至数周内完成。嫌疑人只有20岁——他在ChatGPT发布时只有16-17岁。在不到4年的时间里,他从一个普通青少年变成了一个持有高管目标名单和反AI宣言的燃烧弹投掷者。(来源: Fortune, 2026-04-13)

规模: 传统激进化受限于物理社会网络的规模。在线激进化可以同时影响数百万人。虽然只有极少数人会走到暴力行动这一步,但当”漏斗顶部”足够宽时,即使极小的转化率也意味着显著的绝对数量。

去中心化: 传统激进化通常需要一个组织(恐怖组织、极端教派)来提供意识形态框架和行动指导。在线激进化可以完全自发地发生——个体在算法的引导下自我激进化,无需任何组织的直接参与。嫌疑人似乎就是这种”独狼”模式——没有证据表明他属于任何有组织的反AI团体。

这意味着什么? 这意味着传统的反恐和反激进化策略(渗透组织、切断资金链、逮捕领导人)对这种新型激进化几乎无效。你无法”渗透”一个不存在的组织。你无法”切断”算法推荐系统的”资金链”。你面对的不是一个可以被打击的敌人,而是一个弥漫在整个信息环境中的系统性风险。


第六章:对立视角的严肃交锋——这真的是”卢德主义2.0”吗?

在提出明确判断之前,我必须认真对待一个反对意见:将此事件与卢德运动类比,是否过度美化了一次犯罪行为?

反对视角:这不是社会运动,这是个人犯罪

批评者会指出:卢德运动是一场有组织的、涉及数千人的社会运动,有明确的经济诉求(保护手工纺织工人的生计),有社区基础,有一定程度的内部协调。而Altman遇袭事件是一个20岁年轻人的个人行为,没有证据表明他代表任何更广泛的运动。将个人犯罪行为升格为”社会运动”,可能会无意中赋予它不应有的正当性和重要性。

这个反对意见有一定道理。我们确实不应该将一个人的暴力行为等同于一场社会运动。

但我的判断是:这种类比的价值不在于等同,而在于预警。

1811年的卢德运动也不是从一场大规模运动开始的。它始于个别工人的个别破坏行为。反堕胎暴力也不是从一场有组织的暴力运动开始的——它始于个别极端分子的个别行动(1993年Michael Griffin枪杀David Gunn医生时,反堕胎运动的主流完全谴责了这一行为)。

个案变成模式的转折点,往往在事后才能被识别。 而到那时,预防的窗口已经关闭。

此外,即使嫌疑人是一个”独狼”,他的行为也不是在真空中发生的。他的反AI宣言、他的高管目标名单、他对”AI doomer”身份的认同——所有这些都指向一个更广泛的在线亚文化生态系统。(来源: SF Chronicle, 2026-04-13; Implicator.ai, 2026-04-13; NBC News, 2026-04-13) 他可能是独自行动的,但他的思想是在一个社区中形成的。

第二个对立视角:AI安全关切不应该被”污名化”

另一个重要的反对意见来自AI安全研究社区:将反AI暴力与AI安全研究联系起来,可能会”污名化”合法的、必要的AI安全讨论。如果每次有人表达对AI风险的担忧,都会被联想到”燃烧弹投掷者”,那么严肃的AI安全对话将变得不可能。

这个反对意见我完全同意。必须明确区分:

  • 合法的AI安全研究和倡导——这是民主社会中必要的、有价值的活动
  • AI末日主义的极端化叙事——这是将合理关切扭曲为暴力正当性的意识形态操作
  • 实体暴力行动——这是犯罪,无论动机如何

问题不在于AI安全关切本身,而在于这种关切在社交媒体回音室中被极端化的过程。正如反堕胎运动中的绝大多数参与者从未支持过暴力一样,AI安全社区中的绝大多数人也会谴责这次攻击。但我们仍然需要理解,合理关切是如何在少数个体身上被扭曲为暴力行动的——不是为了污名化关切本身,而是为了识别和中断激进化路径。


第七章:So What——当技术加速遭遇社会摩擦

一枚燃烧弹不会阻止AI发展。正如砸毁织布机没有阻止工业革命,爆炸堕胎诊所没有终结堕胎权利(尽管Roe v. Wade最终在2022年被推翻,但那是通过司法途径而非暴力实现的)。

但如果我们从历史中只学到”暴力不会阻止技术进步”这一个教训,那我们学到的太少了。

历史还告诉我们:

教训1:被忽视的焦虑会寻找出口。 卢德运动之所以发生,部分原因是19世纪初的英国缺乏有效的工人利益表达机制——没有合法工会,没有劳动保护法,没有社会安全网。当合法渠道被堵塞时,非法渠道就会被打开。

教训2:暴力是最昂贵的反馈信号。 每一次针对技术变革的暴力事件,都是社会在用最极端的方式告诉决策者:”适应机制失灵了。”燃烧弹是一个信号——不是一个值得效仿的信号,而是一个值得认真解读的信号。

教训3:行业自身是解决方案的一部分。 工业革命最终的”解决方案”不是停止技术进步,而是建立了一整套社会制度来管理技术进步的副作用:工会、最低工资法、工作时间限制、社会保险、公共教育。这些制度不是自发出现的——它们是在数十年的社会冲突(包括暴力冲突)之后,由工人运动、进步政治家和开明企业家共同推动建立的。

对AI行业的具体启示:

第一,安全叙事需要与经济叙事脱钩。 目前,AI安全讨论被两个极端绑架:一端是”AI将灭绝人类”的末日叙事,另一端是”AI安全是阻碍创新的借口”的产业叙事。两者都无助于解决问题。AI行业需要主动参与建设一个更务实的中间地带——承认真实的风险,同时避免将风险讨论推向末日化。

第二,过渡期的经济缓冲至关重要。 英伟达数据中心业务142%的增长速度(来源: NVIDIA官方财报, 2026)意味着AI部署的速度远快于劳动力市场的适应速度。行业和政策制定者需要认真投资于过渡期的经济缓冲机制——不是作为慈善,而是作为社会稳定的基础设施投资。

第三,平台责任不能再被回避。 如果社交媒体的算法推荐系统确实在加速激进化过程(Frontiers in Political Science的研究强烈暗示了这一点(来源: Frontiers in Political Science, 2025)),那么平台公司在反激进化方面负有不可推卸的责任。这不是审查问题——没有人建议禁止AI安全讨论。这是算法设计问题——推荐系统是否应该被重新设计,以减少将用户推向极端内容的倾向?

第四,”减压阀”比”防火墙”更重要。 保护AI高管的人身安全是必要的(尤其是在嫌疑人持有目标名单的情况下(来源: Implicator.ai, 2026-04-13)),但这只是治标。治本的方式是建立有效的社会对话机制,让焦虑有合法的表达渠道,让愤怒有建设性的出口。这意味着:真正的公众参与(而非PR式的”公众咨询”)、有实质权力的AI治理机构、以及对AI受影响群体的直接经济支持。


结语:火焰之后

2026年4月的那个夜晚,一枚燃烧弹在Sam Altman住宅的外墙上留下了焦痕。(来源: Fortune, 2026-04-13; AP News, 2026-04-13) 物理损害有限。但它在公共意识中留下的印记——一个20岁的年轻人,带着反AI宣言和高管目标名单,将技术恐惧转化为实体暴力——将持续很长时间。

这枚燃烧弹是一个句号,还是一个逗号?

如果它是一个孤立事件——一个心理不稳定的个体的极端行为——那么它将很快被新闻周期淹没。但如果它是一个模式的开端——如果AI焦虑的激进化管道继续运转,如果社交媒体继续加速极端化,如果产业增长与社会适应之间的落差继续扩大——那么这枚燃烧弹就只是序章。

历史的教训是清晰的:技术革命不可阻挡,但技术革命引发的社会冲突可以被管理。管理的前提是承认冲突的存在,理解冲突的根源,并建立有效的制度来化解冲突。

卢德工人砸毁的织布机没有阻止工业革命。但工业革命最终催生的劳动保护制度,让后来的技术变革不再需要以暴力作为反馈信号。

AI时代需要自己的”劳动保护制度”——不是对AI技术的限制,而是对AI时代社会契约的重新设计。这不是一个可以推迟到”AI发展成熟之后”再讨论的问题。当一个20岁的年轻人已经拿起了燃烧弹,讨论的窗口正在关闭。

英伟达1304亿美元的年营收(来源: NVIDIA官方财报, 2026)告诉我们,AI产业的高速列车不会减速。那么问题就变成了:我们是否能在列车加速的同时,为被甩出轨道的人建造足够的安全网?

这不是一个技术问题。这是一个文明问题。

而文明问题的答案,从来不在燃烧弹里。


参考资料

  1. Meet the man accused of throwing a Molotov cocktail at Sam Altman: a 20-year-old ‘AI doomer’ — Fortune, 2026-04-13
  2. Altman Molotov Suspect Charged, Kept AI Executive Hit List — Implicator.ai, 2026-04-13
  3. Man accused in Molotov cocktail attack of OpenAI CEO’s home charged with attempted murder — AP News, 2026-04-13
  4. Feds say man suspected of firebombing OpenAI CEO’s S.F. home was arrested with anti-AI manifesto — SF Chronicle, 2026-04-13
  5. Man accused of throwing Molotov cocktail at Sam Altman’s home opposed AI in writings, court documents say — NBC News, 2026-04-13
  6. Man charged with firebomb attempt at home of OpenAI CEO Sam Altman — Washington Post, 2026-04-13
  7. Sam Altman’s San Francisco home targeted by Molotov cocktail and gunfire in two separate attacks — TechSpot, 2026-04-13
  8. NVIDIA Announces Financial Results for Fourth Quarter and Fiscal 2026 — NVIDIA官方, 2026
  9. AI Industry Growth Metrics 2026 — BluTree AI, 2026
  10. The role of artificial intelligence in radicalisation, recruitment and terrorist propaganda — Frontiers in Political Science, 2025

主题分类:劳动力变革