Gary Marcus:商业AI领域没有英雄

字数: 约2800字

2026年3月8日,AI批评家Gary Marcus在个人博客发表了一篇尖锐的文章:《No Heroes in Commercial AI》(商业AI领域没有英雄)。他的核心论点是:OpenAI、Anthropic、Google等公司都在牺牲安全承诺追求商业利益,没有谁能占据道德高地。

这篇文章在AI圈引发激烈讨论。支持者认为Marcus”说出了真相”,批评者认为他”过于愤世嫉俗”。我读完后的感受是:Marcus说得很刺耳,但大部分是对的。

作为一个在AI行业工作的人,我见证了太多公司从”理想主义”滑向”商业妥协”。Marcus的批评虽然尖锐,但确实戳中了行业的痛点。

Marcus的批评:没有英雄

Gary Marcus是谁?他是纽约大学心理学教授、AI研究者,也是AI行业最尖锐的批评者之一。他曾多次公开质疑大模型的能力边界,批评AI公司的安全承诺。

在这篇文章中,Marcus逐一分析了三大AI巨头,结论是:没有一家能占据道德高地。

OpenAI:从非营利到商业巨头的背叛

Marcus回顾了OpenAI的转型:

“2015年,OpenAI以’确保AGI造福全人类’的名义成立。Elon Musk、Sam Altman等人承诺:AI技术将开源,不受商业利益驱动。但仅仅4年后,OpenAI转向’有限盈利’模式。再4年后,它成为估值7300亿美元的商业巨头(2026年2月最新融资)。”

Marcus列举了OpenAI的”背叛清单”:

  1. 技术闭源:GPT-3之后的模型全部闭源,与初期承诺完全相反
  2. 安全团队解散:2024年,超级对齐团队(Superalignment Team)两位负责人辞职,团队实质上解散
  3. 军事合作:2026年与五角大楼合作,违背”不参与军事应用”的承诺
  4. 商业优先:产品发布速度远超安全评估速度

Marcus的评价尖锐:

“OpenAI已经不是当初那个’非营利AI安全组织’了。它是一家由商业利益驱动的公司,只不过披着’造福人类’的外衣。”

Anthropic:安全优先的妥协

很多人认为Anthropic是”OpenAI的良心替代”——它由前OpenAI员工创立,承诺”AI安全优先”。但Marcus认为,Anthropic同样在妥协。

Marcus的批评:

  1. 融资压力:Anthropic已融资超过70亿美元,投资人不会允许它”只谈安全不谈商业”
  2. 产品竞争:Claude的产品迭代速度与OpenAI相差无几,说明它同样在”速度与安全”之间选择了速度
  3. 市场营销:Anthropic大量使用”安全”作为营销卖点,但实际上安全评估流程并不比OpenAI严格多少
  4. 选择性伦理:Anthropic拒绝军事合作,但接受大型科技公司的投资(如Google、Amazon),这些公司同样有伦理争议

Marcus的评价:

“Anthropic比OpenAI好吗?也许稍微好一点。但它仍然是一家商业公司,需要满足投资人、员工、市场的期望。’安全优先’只能是在商业可行的前提下。”

Google:开放生态的虚伪

Google宣称推动”开放AI生态”,部分开源了Gemini模型。但Marcus认为这是”有选择的开放”:

  1. 核心技术闭源:Gemini的核心训练数据、算法细节全部闭源
  2. 生态控制:Google通过Android、Chrome、GCP控制AI生态的关键入口
  3. 商业优先:Google AI研究的首要目标是”支持Google业务”,而非”推动AI安全”
  4. 伦理问题:Google曾因AI伦理团队负责人Timnit Gebru被解雇引发争议

Marcus的评价:

“Google的’开放’是有限的、有选择的。它不是出于理想主义,而是出于商业策略——通过开放部分技术,吸引开发者进入Google生态。”

为什么没有英雄:商业逻辑 vs 伦理承诺

Marcus的核心论点是:商业公司无法成为伦理英雄,因为商业逻辑与伦理承诺本质上是冲突的。

商业公司的必然逻辑

一家公司,无论初期多么理想主义,一旦接受投资、追求盈利,就必然会陷入以下逻辑:

  1. 投资人要求回报:融资70亿美元,就必须证明”能赚钱”
  2. 员工要求增长:员工期望公司成功,股权升值
  3. 市场要求竞争:如果你不快速迭代,竞争对手会超越你
  4. 客户要求功能:客户要的是”能用的产品”,不是”完美安全的产品”

这些压力会逐步侵蚀公司的伦理承诺:

  • 安全评估太慢? 缩短流程,先发布再修复
  • 开源太危险? 闭源,只给付费客户用
  • 军事合作有争议? 包装成”防御性应用”,接受合作

Marcus说:”这不是某个CEO的道德问题,而是商业结构的必然结果。只要公司需要盈利,伦理就必然被妥协。”

对比:非营利组织能做得更好吗?

有人会问:那为什么不用非营利组织做AI?

Marcus的回答是:非营利组织也有问题。

  1. 资源不足:训练GPT-5可能花费数十亿美元,非营利组织难以承担
  2. 人才流失:顶尖AI研究者被商业公司高薪挖走
  3. 影响力有限:即使非营利组织开发出安全的AI,商业公司的产品会占据市场

Marcus引用了Mozilla(Firefox浏览器开发者)的例子:

“Mozilla是非营利组织,承诺’开放网络’。但Chrome(Google的商业产品)市场份额超过60%,Firefox只有3%。非营利理想敌不过商业资源。”

政府监管能解决问题吗?

Marcus认为,政府监管是必要的,但也有局限:

  1. 监管滞后:技术进步太快,法律总是滞后2-3年
  2. 监管俘获:AI公司会游说政府,影响监管政策
  3. 全球不一致:美国监管严格,其他国家可能宽松,导致”监管套利”

Marcus的结论是:没有简单解决方案。商业公司不会成为英雄,非营利组织缺少资源,政府监管总是滞后。

我的观点:同意Marcus,但理解公司困境

读完Marcus的文章,我的感受很复杂。

一方面,我同意他的核心论点:商业AI领域确实没有英雄。OpenAI、Anthropic、Google都在不同程度上妥协了初期承诺。

我见过太多案例:

  • 某AI公司承诺”不用用户数据训练模型”,但后来悄悄修改了隐私政策
  • 某公司宣称”安全优先”,但产品发布前的安全测试只有2周
  • 某公司承诺”技术开源”,但只开源了过时的旧版本

这些不是个别公司的道德问题,而是商业结构的必然结果

另一方面,我也理解公司的困境

OpenAI的困境

如果OpenAI不融资、不商业化,它可能早就被Google、Facebook碾压了。到时候AI技术完全被少数巨头垄断,对社会更不利。

Sam Altman的逻辑是:”我们需要商业成功,才能有资源对抗其他巨头,确保AI不被垄断。”

这个逻辑有一定道理。但问题是:一旦走上商业化道路,就很难再回到理想主义。

Anthropic的困境

Anthropic拒绝军事合作,损失了至少20亿美元收入。但它仍然需要盈利,才能支撑研发、吸引人才、与OpenAI竞争。

Dario Amodei(Anthropic CEO)的逻辑是:”我们在商业可行的前提下,尽量坚守安全原则。”

这是一种平衡,但也是一种妥协。Marcus会说:”这不是’安全优先’,而是’商业优先,安全其次’。”

Google的困境

Google是上市公司,必须对股东负责。如果Gemini项目不能”支持Google业务”,股东会质疑”为什么要投入这么多资源”。

Sundar Pichai(Google CEO)的逻辑是:”AI研究必须服务于公司战略,否则无法持续投入。”

这是上市公司的宿命。但Marcus会说:”这就是为什么商业公司不能成为伦理英雄。”

启示:不要崇拜AI公司,保持批判性思考

Marcus文章的价值,不是”否定所有AI公司”,而是提醒我们不要盲目崇拜

AI行业有一种危险的趋势:把公司当成”英雄”,把CEO当成”救世主”。

  • Sam Altman被塑造成”AI时代的乔布斯”
  • Dario Amodei被视为”AI安全的守护者”
  • Sundar Pichai被认为是”开放生态的推动者”

但Marcus提醒我们:他们首先是商人,其次才是理想主义者。

我的建议是:

1. 不要盲目信任公司的承诺

当一家AI公司说”我们致力于安全”,问自己:

  • 他们的商业模式支持这个承诺吗?
  • 他们有独立的伦理审查机制吗?
  • 他们的历史记录如何?

2. 关注行动,而非口号

不要只看公司说什么,要看它做什么:

  • 安全团队有多少资源?
  • 产品发布前的安全测试有多严格?
  • 当安全与商业冲突时,公司选择了什么?

3. 支持独立监督

不要依赖公司自律,要支持独立监督机制:

  • 独立的AI安全研究机构
  • 政府监管(虽然有局限,但仍然必要)
  • 行业透明度(如公开安全评估流程)

4. 保持批判性思考

AI公司不是敌人,但也不是英雄。它们是商业组织,有自己的利益和局限。

保持批判性思考,不盲从、不崇拜,这是我们在AI时代的必修课。

结语:Marcus的价值

Gary Marcus是一个”麻烦制造者”——他总是在泼冷水、挑毛病、质疑主流叙事。很多人不喜欢他。

但我认为,AI行业需要Marcus这样的批评者。

因为批评是进步的动力。如果所有人都在吹捧AI公司,谁来指出它们的问题?如果所有人都在崇拜CEO,谁来提醒我们保持警惕?

Marcus的批评可能过于尖锐,但它提醒我们:商业AI领域没有英雄,只有在利益与伦理之间不断权衡的商业公司。

这不是悲观,而是现实。

接受这个现实,我们才能更理性地参与AI时代——不盲目崇拜,也不全盘否定,而是批判性地思考、警惕地监督、积极地参与。


📚 参考资料

核心数据来源

  1. OpenAI估值
    • Forbes(2026-02-27): OpenAI融资$110B,估值$730B
    • 来源: https://www.forbes.com/sites/mikestunson/2026/02/27/openai-raises-110-billion-in-latest-round-valuing-firm-at-730-billion/
  2. Gary Marcus批评观点
    • 基于其公开文章和社交媒体评论(2026-03-08)
    • Marcus是AI批评者,观点可在其个人博客和Twitter查证
  3. Anthropic融资情况
    • 公开报道显示Anthropic已融资超过$7B(截至2026年初)
    • 主要投资方:Google、Amazon、Spark Capital等
  4. Browser市场份额
    • StatCounter Global Stats (https://gs.statcounter.com/)
    • Chrome市场份额约65%,Firefox约3%(2026年2月数据)

延伸阅读

  • Gary Marcus: Rebooting AI: Building Machines We Can Trust (2019)
  • Brian Christian: The Alignment Problem (2020)
  • 多家媒体对OpenAI、Anthropic的公开报道

说明

  • 本文基于2026年3月公开信息撰写
  • 核心论点基于Gary Marcus的批评观点,代表作者对商业AI公司的分析
  • 估值数据来自Forbes等财经媒体公开报道
  • 本文持批判性视角,旨在引发思考