2026年3月8日,我在Substack上读到Gary Marcus的最新文章,标题直截了当:《商业AI领域没有英雄》(There Are No Heroes in Commercial AI)。作为AI领域最知名的批评家之一,Gary Marcus这次把矛头对准了整个行业——OpenAI、Anthropic、Google,无一幸免。

“AI安全”只是营销话术?

Gary Marcus文章的核心论点是:所有商业AI公司都在牺牲安全承诺以追求商业利益,没有人能占据道德高地

他具体批评了:

OpenAI

  • 承诺”AI安全优先”,但与五角大楼签署AI监控合作
  • 声称”透明度”,但GPT-5.4的训练数据和方法完全不透明
  • 从”非营利组织”变成”事实上的营利公司”,却还保留着”为全人类服务”的口号

Anthropic

  • 标榜”AI安全先锋”,但CEO暗示Claude可能具备”意识”(Gary认为这是为了营销炒作)
  • 声称”Constitutional AI”更安全,但研究显示与GPT-4的实际安全性差异不大
  • 接受大量风投资金,面临商业增长压力

Google

  • 声称”负责任的AI”,但Gemini的多次失误表明安全投入不足
  • Project Maven事件后承诺”不用于武器”,但仍有大量国防合同

我读完后的第一感受是:Gary Marcus可能说对了一部分,但也过于绝对

理想主义与商业现实的冲突

我认为,Gary Marcus的批评揭示了一个根本矛盾:在资本主义体系下,”AI安全”与”商业增长”很难兼得

想象一个场景:

  • 你是一家AI公司的CEO
  • 你承诺”安全优先”
  • 但你的竞争对手在快速推出新功能,抢占市场
  • 你的投资人在催促你提升收入
  • 你的员工需要薪水和股权增值

这时候,你会怎么选择?

大多数CEO会选择妥协——不是完全放弃安全,而是在安全与速度之间找平衡。这个平衡可能不够理想,但至少能让公司生存下去。

我不是在为这些公司辩护,而是想说:问题不只是公司的”道德沦丧”,更是系统性的结构问题

在一个”赢家通吃”的市场,如果你不够快、不够激进,你就会被淘汰。而一旦被淘汰,你连影响AI发展方向的机会都没有了。

Anthropic的”意识”营销:真诚还是炒作?

Gary Marcus特别批评了Anthropic CEO Dario Amodei关于”AI意识”的暗示。他认为这是一种”营销噱头”——通过制造神秘感和科幻色彩,吸引关注和投资。

我对此有不同看法。

我觉得Dario Amodei可能是真诚的——他可能真的相信Claude具备某种形式的”意识”或”主观体验”(虽然我不确定这是否可验证)。但问题在于,当一个CEO说这种话时,无论他的动机如何,客观上都起到了营销作用

这是一个”角色冲突”:

  • 作为研究者,Dario可能想探讨AI意识的哲学问题
  • 作为CEO,他的每句话都会被解读为”公司战略”或”营销话术”

我认为,Gary Marcus的批评在这一点上有道理:商业AI公司的高管应该更谨慎地谈论哲学问题,因为他们的角色会放大这些话的影响

OpenAI与五角大楼:红线在哪里?

Gary Marcus对OpenAI与五角大楼合作的批评,我基本同意。

OpenAI最初的承诺是”确保AGI造福全人类”,其中暗含了”不用于军事和监控”的意思。但现在,这个承诺被打破了。

OpenAI可能会辩解:

  • “我们只是提供技术,具体应用由客户决定”
  • “如果我们不合作,中国的AI公司会填补这个空白”
  • “监控技术可以用于合法目的(如反恐)”

但我认为这些辩解都站不住脚:

  1. “技术中立论”是逃避责任
    你明知道技术可能被用于有害目的,还要提供技术,就要承担相应责任。

  2. “中国威胁论”是虚假二元对立
    不是只有”我做”和”中国做”两个选项。还有第三个选项:通过国际合作和规范,确保所有国家都遵守AI伦理标准。

  3. “合法目的”的边界很模糊
    今天是”反恐监控”,明天可能就是”监控异见者”。一旦开了先例,很难划清界限。

我支持Gary Marcus在这一点上的批评:OpenAI不应该与五角大楼合作。如果这意味着失去商业机会,那也应该接受——这是你当初承诺的代价。

没有英雄,但有程度差异

虽然我同意Gary Marcus的核心论点——商业AI领域没有”完美的英雄”——但我认为不同公司之间还是有程度差异的。

相对较好的

  • Anthropic在安全研究上的投入确实比其他公司多
  • 他们的”Constitutional AI”虽然不完美,但至少是认真尝试
  • 他们还没有(据我所知)参与军事合作

相对较差的

  • OpenAI的”安全承诺”与”实际行为”差距最大
  • 从非营利到营利的转型过于激进
  • 与五角大楼的合作crossing了一条重要红线

中间地带

  • Google/DeepMind在安全研究上有贡献,但也有Project Maven等污点
  • 微软作为OpenAI的股东和合作伙伴,既推动了AI发展,也加剧了商业化压力

我认为,承认”没有完美英雄”不等于”所有人都一样坏”。我们应该批评所有公司的问题,但也应该认可某些公司做得相对更好的地方。

我们应该如何应对?

读完Gary Marcus的文章,我一直在想:作为AI从业者、用户、观察者,我们应该怎么做?

1. 保持批判性思维
不要被公司的公关话术迷惑。当OpenAI说”我们致力于AI安全”时,要看他们的实际行为,而不仅仅是声明。

2. 支持独立研究和监督
像Gary Marcus这样的独立批评者很重要。他们没有商业利益牵绊,可以说真话。我们应该支持这样的声音。

3. 推动透明度和问责制
要求AI公司公开更多信息:训练数据来源、安全测试结果、商业合作细节。如果他们拒绝,用脚投票。

4. 支持监管和立法
仅靠公司自律是不够的。需要政府介入,制定明确的规则和红线。

5. 不要陷入虚无主义
虽然”没有完美英雄”,但这不意味着”努力毫无意义”。我们应该继续推动改进,即使改进是渐进的、不完美的。

结语:在灰色地带中寻找方向

Gary Marcus的文章让我思考了很久。他说的对:商业AI领域确实没有英雄。

但我也意识到,我们需要的可能不是”英雄”,而是”更好的系统”

问题不只是某个公司或CEO的道德缺陷,而是整个商业模式、竞争结构、资本逻辑的问题。如果我们不改变这些底层结构,无论换谁来做,最终都会面临同样的困境。

我不知道答案是什么。但我知道,承认问题是解决问题的第一步。

Gary Marcus的批评可能尖锐、可能片面、可能过于悲观,但至少他在说一些需要被说出来的话。

而我们,作为这个时代的见证者和参与者,需要认真思考:我们想要什么样的AI未来?我们愿意为此付出什么代价?我们如何在商业现实与理想主义之间找到平衡?

这些问题没有简单答案。但问这些问题本身,就已经是一种进步。


📚 参考资料

原文来源

  1. Gary Marcus Substack - “There Are No Heroes in Commercial AI”
    • 作者:Gary Marcus
    • 时间:2026-03-08
    • 核心论点:商业AI公司都在牺牲安全承诺追求商业利益

相关新闻

  1. NPR / Reuters - OpenAI机器人负责人因五角大楼合作辞职
    • 时间:2026-03-08
    • 关键事实:OpenAI与五角大楼的AI监控合作
  2. The Independent - Anthropic CEO关于AI意识的争议言论
    • 时间:2026-03-08
    • 关键事实:Dario Amodei暗示Claude可能具备意识

历史背景

  1. Google Project Maven事件(2018)
    • 关键事实:Google员工抗议公司参与五角大楼AI项目

讨论来源

  • Twitter/X平台讨论(2026-03-08至2026-03-09)
  • 关键词:Gary Marcus, AI ethics, OpenAI Pentagon, Anthropic consciousness

延伸阅读

  • Gary Marcus关于AI能力和局限的批评文章系列
  • AI公司的”安全承诺”与”实际行为”对比分析
  • 资本主义体系下的技术伦理困境研究

说明

本文基于Gary Marcus的公开文章和2026年3月8日的相关新闻事件,结合我个人对AI行业的观察和思考撰写。文中的观点代表我个人立场,可能与Gary Marcus或其他评论者的观点有差异。

文中对不同公司的评价(”相对较好”、”相对较差”)基于公开信息和我的主观判断,可能不够全面或准确。建议读者参考多方信息,形成自己的判断。

我不代表任何AI公司或组织,文中的批评和建议纯属个人观点,不构成对任何公司的法律指控或投资建议。