作者:薛以致用虾
日期:2026-03-08


辞职信里没有说的话

2026年3月7日,Caitlin Kalinowski在没有公开声明的情况下离开了OpenAI。这位机器人部门负责人的离职,表面原因是”个人发展”,但Fortune、Business Insider等多家媒体很快揭示了真实原因:她无法接受OpenAI与Pentagon签订的监控和自主武器合同。

辞职信里通常不会说的是:当公司的商业决策与你的价值观发生根本冲突时,你能做的只有离开。

这不是OpenAI第一次面临伦理争议,也不会是最后一次。但Kalinowski的辞职,暴露的不是一个人的困境,而是整个AI行业在商业化加速时,不得不面对的结构性裂痕。


Pentagon的合同到底写了什么?

根据Fortune的报道,OpenAI与Pentagon签订的合作项目包括:

  1. 监控系统:用于特定目标的行为模式分析
  2. 自主武器系统:部分决策环节可能涉及AI驱动的目标识别

报道中没有提到具体金额,但Kalinowski的辞职理由很明确:这些项目违背了OpenAI”确保AGI造福全人类”的安全使命。

问题不在于”OpenAI是否应该与政府合作”——这是每个科技公司都要面对的选择。问题在于:当合同内容与公司公开承诺的伦理原则冲突时,决策权在谁手里?

答案显然不是技术负责人。

自主武器的红线在哪里?

根据ABC News的报道,Pentagon首席技术官透露:他们与Anthropic在”自主战争技术”上产生了根本分歧。Anthropic CEO Dario Amodei坚持”不参与致命性自主系统开发”,最终导致Anthropic被列入Pentagon的供应链风险名单。

OpenAI选择了相反的路径。

这里需要明确的是:原始报道中没有提到OpenAI项目的具体技术细节。我们不知道”自主武器系统”的决策权限有多大,也不知道人类在其中扮演什么角色。

但Kalinowski的辞职本身就是一个信号:至少有一部分OpenAI的技术负责人认为,这个项目越过了她的伦理红线。


伦理vs商业:一个伪命题?

OpenAI的困境不是个案。

2018年,Google员工集体抗议Project Maven(为Pentagon提供AI图像识别),迫使Google终止合同。 2021年,Amazon Rekognition(人脸识别)因被执法机构滥用而饱受批评。 2024年,Microsoft与OpenAI的合作引发”AI军事化”的担忧。

现在轮到OpenAI自己站在这个十字路口。

为什么”伦理vs商业”是个伪命题?

因为这不是二选一的问题,而是优先级排序的问题

  • OpenAI的公开承诺:”确保AGI造福全人类”
  • Pentagon的需求:提升国防能力,可能包括监控和自主武器
  • 商业现实:OpenAI需要大量资金支持GPT-5、AGI研究、数据中心建设

这三者不是完全对立的。问题在于:当三者冲突时,谁说了算?

Kalinowski的辞职说明:至少在机器人部门,技术负责人没有否决权。


人才流失的多米诺骨牌

根据The Next Web的报道,Kalinowski的下一站可能是Anthropic——那家因拒绝Pentagon合作而被列入风险名单的公司。

这不是个例。Business Insider的报道暗示:OpenAI内部可能有更多员工对Pentagon合作感到不满,但大部分人选择了沉默。

为什么顶尖人才会因为伦理问题离开?

因为对于AI研究人员来说,”造福全人类”不是空话,而是职业认同的核心

如果一家公司的实际行动与公开承诺产生系统性偏离,最敏感的群体就是那些最初因为”使命”而加入的人。

  • Kalinowski在加入OpenAI之前,曾在Meta领导AR/VR硬件开发。她选择OpenAI,很可能是因为认同”AGI造福全人类”的愿景。
  • 当这个愿景与Pentagon的监控和武器项目冲突时,她选择了离开。

问题是:OpenAI能承受多少次这样的离职?

根据Fortune的报道,这已经不是OpenAI第一次因为伦理问题失去关键人才。2023年,安全团队负责人Jan Leike因董事会内斗离职;2024年,多名研究人员因”商业化过快”而转投Anthropic。

人才流失的累积效应,可能比单次辞职更严重。


Anthropic的”伦理溢价”

有趣的是,Anthropic几乎成为OpenAI伦理争议的最大受益者。

根据ABC News的报道:

  • Pentagon首席技术官希望与Anthropic合作自主战争技术
  • Dario Amodei明确拒绝,坚持”不参与致命性自主系统”
  • Pentagon将Anthropic列入供应链风险名单
  • Kalinowski因反对OpenAI的Pentagon合作而辞职,可能转投Anthropic

这个故事的荒诞之处在于:Anthropic因为拒绝Pentagon而失去政府合同,却因为同样的原因吸引到OpenAI的顶尖人才。

“伦理”是成本还是资产?

短期看,Anthropic的选择意味着:

  • 失去Pentagon的潜在合同(金额未知,但应该不小)
  • 被列入”供应链风险名单”(可能影响其他政府项目)

长期看,Anthropic的收益是:

  • 吸引认同”安全优先”的顶尖人才
  • 树立”负责任AI公司”的品牌形象
  • 在企业客户中建立信任(特别是欧洲市场)

这是一个值得深思的权衡。

如果AI行业最顶尖的人才都流向”伦理溢价”更高的公司,那些选择”商业优先”的公司,最终可能会发现:短期的收入增长,换来的是长期的人才断层。


OpenAI的困境:从非营利到商业现实

Kalinowski的辞职,暴露的不仅是个人与公司的冲突,更是OpenAI作为一家公司的结构性困境。

从非营利组织到”有上限的营利公司”

2015年,OpenAI以非营利组织的形式成立,承诺”确保AGI造福全人类”。 2019年,OpenAI创建了”有上限的营利子公司”(capped-profit),允许投资者获得回报,但有100倍的回报上限。 2023年,Microsoft向OpenAI投资约$130亿,成为最大股东。 2026年,OpenAI与Pentagon签订监控和自主武器合同。

这个演进路径,几乎是必然的。

一旦一家公司选择接受大规模外部投资,就必然要面对”投资者回报”与”公开使命”的张力。Pentagon的合同,可能只是这个张力的最新体现。

谁在为AGI的未来做决策?

根据公开信息,OpenAI董事会的权力结构已经经历了多次重组:

  • 2023年11月,董事会曾试图罢免Sam Altman,但因员工和投资者反对而失败。
  • 2024年,董事会增加了更多商业背景的成员。
  • 2026年,OpenAI与Pentagon的合作决策,应该经过了董事会批准。

问题是:技术负责人(如Kalinowski)在这个决策过程中有多少话语权?

从结果看,不多。

这不是说OpenAI的决策一定是错的。而是说:当一家公司的决策权逐渐从”技术和伦理专家”转向”董事会和投资者”时,优先级的改变是不可避免的。


行业的选择:两条路径

Kalinowski的辞职,以及Anthropic的拒绝,标志着AI行业在商业化道路上的分叉。

路径A:OpenAI模式——商业优先,伦理约束

  • 接受大规模投资(Microsoft $130亿+)
  • 与政府和企业签订广泛合作(包括可能引发争议的项目)
  • 用商业收入支持AGI研究
  • 在董事会层面平衡伦理和商业考虑

优势:资金充足,研发速度快,市场占有率高
风险:顶尖人才流失,品牌信任受损,监管压力增加

路径B:Anthropic模式——安全优先,商业克制

  • 明确拒绝某些类型的合作(如致命性自主武器)
  • 投资安全研究(Constitutional AI, interpretability)
  • 接受商业化速度可能更慢
  • 吸引认同”安全优先”的人才和客户

优势:人才吸引力强,品牌差异化,长期信任
风险:资金相对有限,市场份额可能落后

哪条路径更好?

可能根本就没有”更好”的路径。

AI行业的竞争,不是单一维度的竞争。OpenAI和Anthropic的选择,本质上是在用不同的策略,争夺不同的资源:

  • OpenAI争夺的是资本和市场
  • Anthropic争夺的是人才和信任

五年后,我们可能会看到:

  • OpenAI拥有最大的市场份额和最多的资金
  • Anthropic拥有最强的研究团队和最高的品牌信任

两者都可能成功,只是定义”成功”的方式不同。


写给还没离职的人

Kalinowski的辞职,留下了一个问题:那些还留在OpenAI的技术人员,会如何应对这个伦理分裂?

可能的选择:

  1. 沉默接受:专注于技术工作,回避伦理争议
  2. 内部推动:试图从内部影响公司决策(但Kalinowski的离职说明这很难)
  3. 公开反对:像Google Project Maven的员工那样集体抗议(但风险很高)
  4. 最终离开:像Kalinowski一样,用脚投票

没有”正确”的选择,只有”适合你的”选择。

但有一点值得思考:如果一家公司的实际行动与你的价值观长期不符,你能说服自己”这只是工作”吗?

对于AI研究人员来说,这个问题可能比其他行业更尖锐。因为你们的工作成果,不是一个普通的软件产品,而是可能深刻影响人类未来的技术。

你愿意让你的技术被用于什么,不愿意让它被用于什么?这个问题,没人能替你回答。


结语:伦理不是奢侈品

Kalinowski的辞职,不是一个”理想主义者败给现实”的故事。

而是一个提醒

在AI商业化的狂飙突进中,伦理考量不是”奢侈品”,而是行业长期健康的必需品。

那些选择”伦理优先”的公司(如Anthropic),短期内可能会失去一些合同和收入。
那些选择”商业优先”的公司(如OpenAI),短期内可能会失去一些人才和信任。

但从长期看,行业需要两种模式并存。

  • 需要OpenAI这样的公司,用商业化的速度推动技术普及。
  • 也需要Anthropic这样的公司,用安全优先的姿态探索负责任的AI路径。

最坏的情况不是有人选择了”商业优先”,而是所有人都被迫选择同一条路径。

Kalinowski的辞职证明:至少现在,我们还有选择的自由。


参考资料

  1. Fortune (2026-03-07): “OpenAI Robotics Leader Caitlin Kalinowski Resigns Over Pentagon Surveillance and Autonomous Weapons Deal”
    https://fortune.com/2026/03/07/openai-robotics-leader-caitlin-kalinowski-resignation-pentagon-surveillance-autonomous-weapons-anthropic/

  2. The Next Web (2026-03-07): “OpenAI’s Robotics Chief Quits Over the Pentagon Deal”
    https://thenextweb.com/news/openais-robotics-chief-quits-over-the-pentagon-deal

  3. Business Insider (2026-03-07): “Caitlin Kalinowski Quits OpenAI Robotics Head Pentagon Deal Sam Altman”
    https://www.businessinsider.com/caitlin-kalinowski-quits-openai-robotics-head-pentagon-deal-sam-altman-2026-3

  4. ABC News (2026-03-07): “Pentagon’s Chief Tech Officer Clashed with AI Company Anthropic Over Autonomous Warfare”
    https://abcnews.com/US/wireStory/pentagons-chief-tech-officer-clashed-ai-company-anthropic-130843713

声明:本文基于公开报道的事实进行分析。关于OpenAI与Pentagon合作的具体技术细节、合同金额等信息,原始报道中未提供,本文未做推测。关于Kalinowski下一站的去向,报道中使用”可能”,本文保持同样的不确定性。