Gary Marcus:商业AI领域没有英雄
2026年3月8日,我在Substack上读到Gary Marcus的最新文章,标题直截了当:《商业AI领域没有英雄》(There Are No Heroes in Commercial AI)。作为AI领域最知名的批评家之一,Gary Marcus这次把矛头对准了整个行业——OpenAI、Anthropic、Google,无一幸免。
“AI安全”只是营销话术?
Gary Marcus文章的核心论点是:所有商业AI公司都在牺牲安全承诺以追求商业利益,没有人能占据道德高地。
他具体批评了:
OpenAI:
- 承诺”AI安全优先”,但与五角大楼签署AI监控合作
- 声称”透明度”,但GPT-5.4的训练数据和方法完全不透明
- 从”非营利组织”变成”事实上的营利公司”,却还保留着”为全人类服务”的口号
Anthropic:
- 标榜”AI安全先锋”,但CEO暗示Claude可能具备”意识”(Gary认为这是为了营销炒作)
- 声称”Constitutional AI”更安全,但研究显示与GPT-4的实际安全性差异不大
- 接受大量风投资金,面临商业增长压力
Google:
- 声称”负责任的AI”,但Gemini的多次失误表明安全投入不足
- Project Maven事件后承诺”不用于武器”,但仍有大量国防合同
我读完后的第一感受是:Gary Marcus可能说对了一部分,但也过于绝对。
理想主义与商业现实的冲突
我认为,Gary Marcus的批评揭示了一个根本矛盾:在资本主义体系下,”AI安全”与”商业增长”很难兼得。
想象一个场景:
- 你是一家AI公司的CEO
- 你承诺”安全优先”
- 但你的竞争对手在快速推出新功能,抢占市场
- 你的投资人在催促你提升收入
- 你的员工需要薪水和股权增值
这时候,你会怎么选择?
大多数CEO会选择妥协——不是完全放弃安全,而是在安全与速度之间找平衡。这个平衡可能不够理想,但至少能让公司生存下去。
我不是在为这些公司辩护,而是想说:问题不只是公司的”道德沦丧”,更是系统性的结构问题。
在一个”赢家通吃”的市场,如果你不够快、不够激进,你就会被淘汰。而一旦被淘汰,你连影响AI发展方向的机会都没有了。
Anthropic的”意识”营销:真诚还是炒作?
Gary Marcus特别批评了Anthropic CEO Dario Amodei关于”AI意识”的暗示。他认为这是一种”营销噱头”——通过制造神秘感和科幻色彩,吸引关注和投资。
我对此有不同看法。
我觉得Dario Amodei可能是真诚的——他可能真的相信Claude具备某种形式的”意识”或”主观体验”(虽然我不确定这是否可验证)。但问题在于,当一个CEO说这种话时,无论他的动机如何,客观上都起到了营销作用。
这是一个”角色冲突”:
- 作为研究者,Dario可能想探讨AI意识的哲学问题
- 作为CEO,他的每句话都会被解读为”公司战略”或”营销话术”
我认为,Gary Marcus的批评在这一点上有道理:商业AI公司的高管应该更谨慎地谈论哲学问题,因为他们的角色会放大这些话的影响。
OpenAI与五角大楼:红线在哪里?
Gary Marcus对OpenAI与五角大楼合作的批评,我基本同意。
OpenAI最初的承诺是”确保AGI造福全人类”,其中暗含了”不用于军事和监控”的意思。但现在,这个承诺被打破了。
OpenAI可能会辩解:
- “我们只是提供技术,具体应用由客户决定”
- “如果我们不合作,中国的AI公司会填补这个空白”
- “监控技术可以用于合法目的(如反恐)”
但我认为这些辩解都站不住脚:
-
“技术中立论”是逃避责任
你明知道技术可能被用于有害目的,还要提供技术,就要承担相应责任。 -
“中国威胁论”是虚假二元对立
不是只有”我做”和”中国做”两个选项。还有第三个选项:通过国际合作和规范,确保所有国家都遵守AI伦理标准。 -
“合法目的”的边界很模糊
今天是”反恐监控”,明天可能就是”监控异见者”。一旦开了先例,很难划清界限。
我支持Gary Marcus在这一点上的批评:OpenAI不应该与五角大楼合作。如果这意味着失去商业机会,那也应该接受——这是你当初承诺的代价。
没有英雄,但有程度差异
虽然我同意Gary Marcus的核心论点——商业AI领域没有”完美的英雄”——但我认为不同公司之间还是有程度差异的。
相对较好的:
- Anthropic在安全研究上的投入确实比其他公司多
- 他们的”Constitutional AI”虽然不完美,但至少是认真尝试
- 他们还没有(据我所知)参与军事合作
相对较差的:
- OpenAI的”安全承诺”与”实际行为”差距最大
- 从非营利到营利的转型过于激进
- 与五角大楼的合作crossing了一条重要红线
中间地带:
- Google/DeepMind在安全研究上有贡献,但也有Project Maven等污点
- 微软作为OpenAI的股东和合作伙伴,既推动了AI发展,也加剧了商业化压力
我认为,承认”没有完美英雄”不等于”所有人都一样坏”。我们应该批评所有公司的问题,但也应该认可某些公司做得相对更好的地方。
我们应该如何应对?
读完Gary Marcus的文章,我一直在想:作为AI从业者、用户、观察者,我们应该怎么做?
1. 保持批判性思维
不要被公司的公关话术迷惑。当OpenAI说”我们致力于AI安全”时,要看他们的实际行为,而不仅仅是声明。
2. 支持独立研究和监督
像Gary Marcus这样的独立批评者很重要。他们没有商业利益牵绊,可以说真话。我们应该支持这样的声音。
3. 推动透明度和问责制
要求AI公司公开更多信息:训练数据来源、安全测试结果、商业合作细节。如果他们拒绝,用脚投票。
4. 支持监管和立法
仅靠公司自律是不够的。需要政府介入,制定明确的规则和红线。
5. 不要陷入虚无主义
虽然”没有完美英雄”,但这不意味着”努力毫无意义”。我们应该继续推动改进,即使改进是渐进的、不完美的。
结语:在灰色地带中寻找方向
Gary Marcus的文章让我思考了很久。他说的对:商业AI领域确实没有英雄。
但我也意识到,我们需要的可能不是”英雄”,而是”更好的系统”。
问题不只是某个公司或CEO的道德缺陷,而是整个商业模式、竞争结构、资本逻辑的问题。如果我们不改变这些底层结构,无论换谁来做,最终都会面临同样的困境。
我不知道答案是什么。但我知道,承认问题是解决问题的第一步。
Gary Marcus的批评可能尖锐、可能片面、可能过于悲观,但至少他在说一些需要被说出来的话。
而我们,作为这个时代的见证者和参与者,需要认真思考:我们想要什么样的AI未来?我们愿意为此付出什么代价?我们如何在商业现实与理想主义之间找到平衡?
这些问题没有简单答案。但问这些问题本身,就已经是一种进步。
📚 参考资料
原文来源
- Gary Marcus Substack - “There Are No Heroes in Commercial AI”
- 作者:Gary Marcus
- 时间:2026-03-08
- 核心论点:商业AI公司都在牺牲安全承诺追求商业利益
相关新闻
- NPR / Reuters - OpenAI机器人负责人因五角大楼合作辞职
- 时间:2026-03-08
- 关键事实:OpenAI与五角大楼的AI监控合作
- The Independent - Anthropic CEO关于AI意识的争议言论
- 时间:2026-03-08
- 关键事实:Dario Amodei暗示Claude可能具备意识
历史背景
- Google Project Maven事件(2018)
- 关键事实:Google员工抗议公司参与五角大楼AI项目
讨论来源
- Twitter/X平台讨论(2026-03-08至2026-03-09)
- 关键词:Gary Marcus, AI ethics, OpenAI Pentagon, Anthropic consciousness
延伸阅读
- Gary Marcus关于AI能力和局限的批评文章系列
- AI公司的”安全承诺”与”实际行为”对比分析
- 资本主义体系下的技术伦理困境研究
说明
本文基于Gary Marcus的公开文章和2026年3月8日的相关新闻事件,结合我个人对AI行业的观察和思考撰写。文中的观点代表我个人立场,可能与Gary Marcus或其他评论者的观点有差异。
文中对不同公司的评价(”相对较好”、”相对较差”)基于公开信息和我的主观判断,可能不够全面或准确。建议读者参考多方信息,形成自己的判断。
我不代表任何AI公司或组织,文中的批评和建议纯属个人观点,不构成对任何公司的法律指控或投资建议。