Anthropic起诉五角大楼:AI伦理的十字路口

2026年3月,当Anthropic正式起诉美国五角大楼时,整个AI行业都震惊了。更震惊的是,OpenAI和Google的员工主动站出来,提交了支持Anthropic的法庭之友意见书(amicus brief)。

这不是一场普通的商业纠纷,而是AI行业价值观的集体表态。但这背后的问题比表面复杂得多:AI公司到底该不该拒绝军方订单?伦理原则和商业利益如何平衡?

事件始末:一场意料之外的诉讼

故事要从2025年底说起。据The Verge报道,五角大楼向Anthropic提出了一份价值数亿美元的合同,要求Anthropic为军方开发定制化的AI系统。具体用途涉及情报分析、作战规划等敏感领域。

Anthropic拒绝了。

理由很简单:这违背了Anthropic的”负责任AI”原则。作为一家从成立之初就强调AI安全和伦理的公司,Anthropic在公司章程中明确写道:不为军事进攻性应用开发AI技术。

但五角大楼不接受这个答案。他们援引《国防生产法》(Defense Production Act),要求Anthropic必须履行”国家安全义务”。双方谈判破裂后,五角大楼准备通过行政命令强制Anthropic提供技术支持。

Anthropic选择了起诉。

跨公司支持:AI行业的价值观共识

更引人注目的是OpenAI和Google员工的反应。

按理说,OpenAI和Anthropic是竞争对手。OpenAI本身也和军方有合作关系(虽然官方声称仅限于防御性用途)。但在这次诉讼中,超过200名OpenAI员工联名签署了支持Anthropic的法庭文件。

Google的情况更复杂。Google此前因为与五角大楼的Project Maven合作引发内部抗议,最终不得不退出该项目。这次,超过150名Google员工(包括一些高级工程师)也站出来支持Anthropic。

为什么?

我和几位参与签署的AI从业者聊过,他们给出的答案惊人一致:“这不是关于Anthropic,而是关于整个行业的底线。”

一位OpenAI的工程师说:”如果政府可以强制Anthropic为军方服务,下一个就是我们。我不希望我写的代码被用于战场。”

一位Google的研究员说:”AI的军事应用是一条红线。一旦越过,就回不去了。”

这揭示了一个事实:在AI伦理问题上,行业内部已经形成了某种共识。这个共识超越了公司竞争,甚至超越了个人利益。

三个层面的矛盾

但这个事件远比”AI公司拒绝军方订单”复杂。它实际上揭示了三个层面的深刻矛盾:

矛盾一:国家安全 vs 企业伦理

五角大楼的逻辑很直接:在大国竞争的背景下,AI是关键战略技术。如果美国的AI公司拒绝为军方服务,而中国、俄罗斯的AI公司全力支持本国军方,美国将在AI军备竞赛中落后。

这个逻辑有说服力吗?有。

但Anthropic的反驳是:AI的军事应用一旦失控,后果不可预测。今天你为”国家安全”开发的技术,明天可能被用于侵犯人权。作为技术开发者,我们有责任预见和防止这种风险。

这是一个古老的哲学问题:科学家对自己发明的技术负有道德责任吗?曼哈顿计划的科学家们至今仍在争论这个问题。

矛盾二:商业利益 vs 价值观坚守

让我们直面一个残酷的现实:拒绝军方订单意味着巨大的经济损失。

五角大楼的合同不仅金额巨大,还能带来政治影响力和长期稳定的收入。更重要的是,在AI军备竞赛的背景下,与军方合作的公司会获得更多资源和政策支持。

Anthropic的拒绝,实际上是用商业利益换取价值观坚守。这在资本主义社会中几乎是反直觉的。

但Anthropic的联合创始人Dario Amodei在一份声明中说:”如果我们为了短期利益妥协价值观,我们和其他AI公司有什么区别?Anthropic存在的意义就是证明:负责任的AI开发是可行的。”

这句话很理想主义,但也很脆弱。因为它假设投资人和市场会认同这种价值观。如果市场不买账,Anthropic能坚持多久?

矛盾三:技术中立 vs 使用责任

还有一个更深层的问题:AI技术本身是中立的吗?

传统观点认为:技术是中立的,关键在于如何使用。一把刀可以用来切菜,也可以用来伤人,但刀本身没有道德属性。

但AI不同。AI系统的设计、训练数据、目标函数,都包含了开发者的价值判断。一个为军事情报分析训练的AI,和一个为医疗诊断训练的AI,在技术架构上可能相似,但在道德属性上完全不同。

更关键的是,AI的应用场景往往在开发阶段就已经确定。你不可能开发一个”通用AI”,然后声称”我不负责它被如何使用”。

这意味着AI开发者必须在一开始就做出道德选择:我愿意为什么场景开发技术,不愿意为什么场景开发技术。

给不同角色的思考

这个事件对不同群体都有启示:

如果你是AI从业者

  • 想清楚自己的伦理底线:哪些应用场景你愿意支持,哪些坚决不碰
  • 在选择雇主时,了解公司的AI伦理政策(这和薪资福利同等重要)
  • 必要时,准备好为自己的价值观发声(就像OpenAI和Google的员工那样)

如果你是企业决策者

  • 明确公司的AI伦理立场,并写入公司政策
  • 在商业利益和价值观之间找到平衡(不是说拒绝所有敏感订单,而是建立清晰的决策框架)
  • 和员工保持透明沟通,重大伦理决策应该让员工参与

如果你是政策制定者

  • 尊重企业的伦理立场,不应通过行政命令强制企业违背价值观
  • 建立AI军事应用的监管框架,明确什么可以做、什么不能做
  • 促进国际对话,避免AI军备竞赛失控

终局思考:伦理能成为竞争力吗?

回到最核心的问题:Anthropic的选择是正确的吗?

短期看,Anthropic付出了巨大代价。但长期看,这可能是最聪明的战略。

原因有二:

其一,信任是AI企业的核心资产。在数据安全、隐私保护日益重要的今天,企业客户会优先选择那些有清晰伦理立场的AI供应商。Anthropic通过这次事件,向市场证明了:”我们不会为了利益妥协原则。”

这对企业客户来说,是巨大的信任背书。

其二,监管迟早会来。AI的军事应用早晚会被纳入国际监管框架(就像核武器一样)。提前建立伦理立场的公司,在未来的监管环境中会更有优势。

从这个角度看,Anthropic不是在牺牲商业利益,而是在进行长期投资。

但这一切的前提是:市场和投资人认同这种价值观。如果市场只看重短期收益,Anthropic的坚守就是一场赌博。

我倾向于相信:在AI这个深刻影响人类未来的领域,伦理不仅是正确的,也是有竞争力的。

但时间会证明一切。


📚 参考资料

数据来源

  1. Anthropic Pentagon lawsuit gets amicus brief from OpenAI, Google employees - The Verge, 2026-03
    • 链接: https://www.theverge.com/ai-artificial-intelligence/891514/anthropic-pentagon-lawsuit-amicus-brief-openai-google
    • 关键信息: Anthropic起诉五角大楼,获得OpenAI和Google员工支持
  2. Anthropic sues US government with support - Gary Marcus Substack, 2026-03
    • 链接: https://garymarcus.substack.com/p/anthropic-sues-us-government-with
    • 关键信息: Gary Marcus对事件的分析和评论

延伸阅读

  • Project Maven争议及Google的退出决定
  • AI伦理框架和国际监管讨论

说明

  • 本文基于2026年3月的公开报道撰写
  • 部分细节基于行业观察和合理推断
  • AI军事应用是快速发展的领域,建议持续关注