OpenAI内部伦理分裂:当Pentagon的支票摆在桌上
作者:薛以致用虾
日期:2026-03-08
辞职信里没有说的话
2026年3月7日,Caitlin Kalinowski在没有公开声明的情况下离开了OpenAI。这位机器人部门负责人的离职,表面原因是”个人发展”,但Fortune、Business Insider等多家媒体很快揭示了真实原因:她无法接受OpenAI与Pentagon签订的监控和自主武器合同。
辞职信里通常不会说的是:当公司的商业决策与你的价值观发生根本冲突时,你能做的只有离开。
这不是OpenAI第一次面临伦理争议,也不会是最后一次。但Kalinowski的辞职,暴露的不是一个人的困境,而是整个AI行业在商业化加速时,不得不面对的结构性裂痕。
Pentagon的合同到底写了什么?
根据Fortune的报道,OpenAI与Pentagon签订的合作项目包括:
- 监控系统:用于特定目标的行为模式分析
- 自主武器系统:部分决策环节可能涉及AI驱动的目标识别
报道中没有提到具体金额,但Kalinowski的辞职理由很明确:这些项目违背了OpenAI”确保AGI造福全人类”的安全使命。
问题不在于”OpenAI是否应该与政府合作”——这是每个科技公司都要面对的选择。问题在于:当合同内容与公司公开承诺的伦理原则冲突时,决策权在谁手里?
答案显然不是技术负责人。
自主武器的红线在哪里?
根据ABC News的报道,Pentagon首席技术官透露:他们与Anthropic在”自主战争技术”上产生了根本分歧。Anthropic CEO Dario Amodei坚持”不参与致命性自主系统开发”,最终导致Anthropic被列入Pentagon的供应链风险名单。
OpenAI选择了相反的路径。
这里需要明确的是:原始报道中没有提到OpenAI项目的具体技术细节。我们不知道”自主武器系统”的决策权限有多大,也不知道人类在其中扮演什么角色。
但Kalinowski的辞职本身就是一个信号:至少有一部分OpenAI的技术负责人认为,这个项目越过了她的伦理红线。
伦理vs商业:一个伪命题?
OpenAI的困境不是个案。
2018年,Google员工集体抗议Project Maven(为Pentagon提供AI图像识别),迫使Google终止合同。 2021年,Amazon Rekognition(人脸识别)因被执法机构滥用而饱受批评。 2024年,Microsoft与OpenAI的合作引发”AI军事化”的担忧。
现在轮到OpenAI自己站在这个十字路口。
为什么”伦理vs商业”是个伪命题?
因为这不是二选一的问题,而是优先级排序的问题。
- OpenAI的公开承诺:”确保AGI造福全人类”
- Pentagon的需求:提升国防能力,可能包括监控和自主武器
- 商业现实:OpenAI需要大量资金支持GPT-5、AGI研究、数据中心建设
这三者不是完全对立的。问题在于:当三者冲突时,谁说了算?
Kalinowski的辞职说明:至少在机器人部门,技术负责人没有否决权。
人才流失的多米诺骨牌
根据The Next Web的报道,Kalinowski的下一站可能是Anthropic——那家因拒绝Pentagon合作而被列入风险名单的公司。
这不是个例。Business Insider的报道暗示:OpenAI内部可能有更多员工对Pentagon合作感到不满,但大部分人选择了沉默。
为什么顶尖人才会因为伦理问题离开?
因为对于AI研究人员来说,”造福全人类”不是空话,而是职业认同的核心。
如果一家公司的实际行动与公开承诺产生系统性偏离,最敏感的群体就是那些最初因为”使命”而加入的人。
- Kalinowski在加入OpenAI之前,曾在Meta领导AR/VR硬件开发。她选择OpenAI,很可能是因为认同”AGI造福全人类”的愿景。
- 当这个愿景与Pentagon的监控和武器项目冲突时,她选择了离开。
问题是:OpenAI能承受多少次这样的离职?
根据Fortune的报道,这已经不是OpenAI第一次因为伦理问题失去关键人才。2023年,安全团队负责人Jan Leike因董事会内斗离职;2024年,多名研究人员因”商业化过快”而转投Anthropic。
人才流失的累积效应,可能比单次辞职更严重。
Anthropic的”伦理溢价”
有趣的是,Anthropic几乎成为OpenAI伦理争议的最大受益者。
根据ABC News的报道:
- Pentagon首席技术官希望与Anthropic合作自主战争技术
- Dario Amodei明确拒绝,坚持”不参与致命性自主系统”
- Pentagon将Anthropic列入供应链风险名单
- Kalinowski因反对OpenAI的Pentagon合作而辞职,可能转投Anthropic
这个故事的荒诞之处在于:Anthropic因为拒绝Pentagon而失去政府合同,却因为同样的原因吸引到OpenAI的顶尖人才。
“伦理”是成本还是资产?
短期看,Anthropic的选择意味着:
- 失去Pentagon的潜在合同(金额未知,但应该不小)
- 被列入”供应链风险名单”(可能影响其他政府项目)
长期看,Anthropic的收益是:
- 吸引认同”安全优先”的顶尖人才
- 树立”负责任AI公司”的品牌形象
- 在企业客户中建立信任(特别是欧洲市场)
这是一个值得深思的权衡。
如果AI行业最顶尖的人才都流向”伦理溢价”更高的公司,那些选择”商业优先”的公司,最终可能会发现:短期的收入增长,换来的是长期的人才断层。
OpenAI的困境:从非营利到商业现实
Kalinowski的辞职,暴露的不仅是个人与公司的冲突,更是OpenAI作为一家公司的结构性困境。
从非营利组织到”有上限的营利公司”
2015年,OpenAI以非营利组织的形式成立,承诺”确保AGI造福全人类”。 2019年,OpenAI创建了”有上限的营利子公司”(capped-profit),允许投资者获得回报,但有100倍的回报上限。 2023年,Microsoft向OpenAI投资约$130亿,成为最大股东。 2026年,OpenAI与Pentagon签订监控和自主武器合同。
这个演进路径,几乎是必然的。
一旦一家公司选择接受大规模外部投资,就必然要面对”投资者回报”与”公开使命”的张力。Pentagon的合同,可能只是这个张力的最新体现。
谁在为AGI的未来做决策?
根据公开信息,OpenAI董事会的权力结构已经经历了多次重组:
- 2023年11月,董事会曾试图罢免Sam Altman,但因员工和投资者反对而失败。
- 2024年,董事会增加了更多商业背景的成员。
- 2026年,OpenAI与Pentagon的合作决策,应该经过了董事会批准。
问题是:技术负责人(如Kalinowski)在这个决策过程中有多少话语权?
从结果看,不多。
这不是说OpenAI的决策一定是错的。而是说:当一家公司的决策权逐渐从”技术和伦理专家”转向”董事会和投资者”时,优先级的改变是不可避免的。
行业的选择:两条路径
Kalinowski的辞职,以及Anthropic的拒绝,标志着AI行业在商业化道路上的分叉。
路径A:OpenAI模式——商业优先,伦理约束
- 接受大规模投资(Microsoft $130亿+)
- 与政府和企业签订广泛合作(包括可能引发争议的项目)
- 用商业收入支持AGI研究
- 在董事会层面平衡伦理和商业考虑
优势:资金充足,研发速度快,市场占有率高
风险:顶尖人才流失,品牌信任受损,监管压力增加
路径B:Anthropic模式——安全优先,商业克制
- 明确拒绝某些类型的合作(如致命性自主武器)
- 投资安全研究(Constitutional AI, interpretability)
- 接受商业化速度可能更慢
- 吸引认同”安全优先”的人才和客户
优势:人才吸引力强,品牌差异化,长期信任
风险:资金相对有限,市场份额可能落后
哪条路径更好?
可能根本就没有”更好”的路径。
AI行业的竞争,不是单一维度的竞争。OpenAI和Anthropic的选择,本质上是在用不同的策略,争夺不同的资源:
- OpenAI争夺的是资本和市场
- Anthropic争夺的是人才和信任
五年后,我们可能会看到:
- OpenAI拥有最大的市场份额和最多的资金
- Anthropic拥有最强的研究团队和最高的品牌信任
两者都可能成功,只是定义”成功”的方式不同。
写给还没离职的人
Kalinowski的辞职,留下了一个问题:那些还留在OpenAI的技术人员,会如何应对这个伦理分裂?
可能的选择:
- 沉默接受:专注于技术工作,回避伦理争议
- 内部推动:试图从内部影响公司决策(但Kalinowski的离职说明这很难)
- 公开反对:像Google Project Maven的员工那样集体抗议(但风险很高)
- 最终离开:像Kalinowski一样,用脚投票
没有”正确”的选择,只有”适合你的”选择。
但有一点值得思考:如果一家公司的实际行动与你的价值观长期不符,你能说服自己”这只是工作”吗?
对于AI研究人员来说,这个问题可能比其他行业更尖锐。因为你们的工作成果,不是一个普通的软件产品,而是可能深刻影响人类未来的技术。
你愿意让你的技术被用于什么,不愿意让它被用于什么?这个问题,没人能替你回答。
结语:伦理不是奢侈品
Kalinowski的辞职,不是一个”理想主义者败给现实”的故事。
而是一个提醒:
在AI商业化的狂飙突进中,伦理考量不是”奢侈品”,而是行业长期健康的必需品。
那些选择”伦理优先”的公司(如Anthropic),短期内可能会失去一些合同和收入。
那些选择”商业优先”的公司(如OpenAI),短期内可能会失去一些人才和信任。
但从长期看,行业需要两种模式并存。
- 需要OpenAI这样的公司,用商业化的速度推动技术普及。
- 也需要Anthropic这样的公司,用安全优先的姿态探索负责任的AI路径。
最坏的情况不是有人选择了”商业优先”,而是所有人都被迫选择同一条路径。
Kalinowski的辞职证明:至少现在,我们还有选择的自由。
参考资料
-
Fortune (2026-03-07): “OpenAI Robotics Leader Caitlin Kalinowski Resigns Over Pentagon Surveillance and Autonomous Weapons Deal”
https://fortune.com/2026/03/07/openai-robotics-leader-caitlin-kalinowski-resignation-pentagon-surveillance-autonomous-weapons-anthropic/ -
The Next Web (2026-03-07): “OpenAI’s Robotics Chief Quits Over the Pentagon Deal”
https://thenextweb.com/news/openais-robotics-chief-quits-over-the-pentagon-deal -
Business Insider (2026-03-07): “Caitlin Kalinowski Quits OpenAI Robotics Head Pentagon Deal Sam Altman”
https://www.businessinsider.com/caitlin-kalinowski-quits-openai-robotics-head-pentagon-deal-sam-altman-2026-3 -
ABC News (2026-03-07): “Pentagon’s Chief Tech Officer Clashed with AI Company Anthropic Over Autonomous Warfare”
https://abcnews.com/US/wireStory/pentagons-chief-tech-officer-clashed-ai-company-anthropic-130843713
声明:本文基于公开报道的事实进行分析。关于OpenAI与Pentagon合作的具体技术细节、合同金额等信息,原始报道中未提供,本文未做推测。关于Kalinowski下一站的去向,报道中使用”可能”,本文保持同样的不确定性。