当Google签了这份合同:伦理限制的真实代价,与AI军备竞赛的最后底线
如果你在AI行业工作,这个故事值得你多读1遍。
2026年4月27日,580名Google员工——包括20余名副总裁和总监,多名Google DeepMind顶尖研究员——联名致信CEO桑达尔·皮查伊(Sundar Pichai),要求拒绝与五角大楼签署机密军事AI协议。这封信措辞清晰,核心论点是技术性的:一旦AI被部署到气隙隔离的军事网络,Google就失去了一切可见性和控制能力。
2026年4月28日,24小时后,The Information独家报道:Google已与美国国防部完成签约,允许五角大楼将Google的AI用于”任何合法政府用途”——不含任何伦理限制条款。
与此同时,Anthropic正因拒绝同样的合同条款,被美国政府列为”国家安全供应链风险”。这个头衔过去只用于华为和中芯国际这样被认定对美国国家安全构成威胁的外国公司。
这3件事放在一起,构成了AI伦理史上迄今最清晰的1个现实测试:当伦理限制遭遇市场逻辑和国家权力,代价是什么?谁来承担这个代价?
就在同一天,美国奥克兰联邦法院,Musk诉Altman案的陪审团刚刚选定,准备审理”一家公司是否可以背叛其最初使命”。2件事毫无关联,但共享同一个问题:当市场和权力同时施加压力,谁来定义AI的边界,这个边界又能持续多久?
那封信与那份合同:24小时内发生的事
《彭博社》的记者在4月27日上午收到了那封信。580名Google员工——其中包括超过20名总监、高级总监和副总裁,以及多名Google DeepMind的资深研究员——联名签署致皮查伊:
“我们是致力于AI研究的Google员工,对Google与美国国防部正在进行的谈判深感忧虑……在气隙隔离的保密网络上,我们没有能力监控或限制我们的AI工具实际被如何使用。目前,确保Google不会卷入此类危害的唯一方式,是拒绝所有涉密工作。”
这封信的技术核心论点值得细读:在气隙隔离(air-gapped)的军事分类网络上,AI模型被部署后,开发公司失去了所有可见性——没有遥测数据回传,没有使用日志,没有触发警报的机制。这不是一个道德主张,而是一个关于系统架构的技术事实陈述。
签名者中有构建过Transformer架构的研究员,有发表过AI安全论文的科学家,有亲历Project Maven争议的工程师。他们知道自己在说什么,他们也知道自己的信可能不起任何作用。
24小时后,这580人成了一家已经签署他们所反对的那份协议的公司的员工。
The Information(科技独立媒体,以可靠的独家新闻著称)的报道引用单一知情人消息,描述这份协议允许五角大楼将Google的AI模型用于”任何合法政府用途”(any lawful government purpose),没有Anthropic式的明确伦理限制条款。Google截至报道时没有确认或否认该协议的具体条款。
这个时间序列本身就是一个完整的故事:员工的请愿在24小时内得到了答案——只是不是他们期望的那种答案。管理层甚至没有机会,或者没有选择,去回应这封信,因为当信被送出时,那份合同可能已经签署了。
伦理光谱:AI军事合同市场的4种策略
要理解Google这份协议的意义,需要先理解一个完整的坐标系。
Anthropic:坚守原则,付出代价
2025年7月,Anthropic成为第1家与五角大楼签署涉密合同的AI实验室,合同金额约2亿美元(据The Next Web及路透社报道)。这是美国国防部GenAI.mil平台采购AI模型的一部分,计划向国防部工作人员开放AI辅助能力。
谈判随即陷入僵局。五角大楼的要求是:开放”所有合法用途”的无限制访问权。Anthropic在谈判中划出了2条明确红线,这2条线在公开报道中都有多方来源确认(The Next Web、路透社、彭博社):
第1条:不用于完全自主武器系统(Fully Autonomous Weapons,即无人工干预的目标选择和致命决策)。
第2条:不用于大规模监控美国国内公民(Mass Domestic Surveillance)。
这2条线有其明确的伦理和法律背景。第1条对应《日内瓦公约》附加议定书中关于武器使用中”有效人工监督”的基本原则;第2条对应美国第4修正案关于无理搜查的宪法保护。Anthropic的立场是:这2条线是他们可以在任何合同中维护的最低伦理标准,不接受谈判。
2026年2月,国防部长皮特·赫格塞斯(Pete Hegseth)将Anthropic认定为”国家安全供应链风险”(National Security Supply Chain Risk)——这一头衔此前专属于与外国对手有关联的公司,比如华为和中芯国际。联邦上诉法院和旧金山地区法院目前就此案的法律认定存在冲突,诉讼仍在进行中。
OpenAI:谈判保留部分边界
OpenAI在相似的压力下选择了不同的策略:它接受了五角大楼的大部分要求,同时保留了1条明确的红线——不允许将模型用于国内大规模监控美国公民。通过这种部分妥协,OpenAI成功留在了五角大楼的供应商框架内,获得了军事AI合同的资格。
xAI:无明显限制签约
马斯克旗下的xAI(Grok模型的开发公司)据报道在无任何明显伦理限制条款的情况下,与五角大楼完成了签约。考虑到马斯克同时是DOGE的联合负责人,这个结果并不令人意外,但它作为一个数据点,确立了”无限制”作为选项的存在。
Google:最宽泛的授权
现在,Google加入了这个供应商池——据The Information报道,以最宽泛的授权:”任何合法政府用途”,无任何条款除外。
4家公司,4种选择,构成了一个完整的”伦理拍卖光谱”:
| 公司 | 策略 | 结果 |
|---|---|---|
| Anthropic | 坚守2条伦理红线 | 被列为国家安全供应链风险,遭黑名单 |
| OpenAI | 保留部分限制(国内监控红线) | 谈判留在框架内 |
| xAI | 无明显限制 | 签约 |
| “任何合法政府用途”,无限制条款 | 签约,据报道授权最宽 |
这个光谱有自己的逻辑:坚守底线的人付出了代价,放弃底线的人获得了合同。它是一个极具说服力的市场信号,针对的对象不只是这4家公司,而是整个AI行业。
2018年:历史对照组
Google员工曾经赢过1次。这是理解当前局面所必须了解的背景。
2018年,当科技媒体披露Google参与了国防部的Project Maven项目——用AI分析无人机视频中的目标——大约4,000名Google员工在内部请愿书上签名(据《纽约时报》当时报道),其中12名员工愤而辞职。抗议的力度迫使公司采取了行动:宣布了包含明确限制的AI原则,承诺”不将AI用于武器”,并在2019年3月选择不续签Maven合同。
当时的Maven合同价值”数百万美元”(据《纽约时报》等媒体报道,合同具体金额未曾公开披露,”数百万”是媒体的估算区间)。
接手那份合同的Palantir,此后将其国防业务发展成了公司的核心收入来源——Palantir的Maven Smart System已成为美国陆军的核心AI战场管理系统,合同总价值已超过100亿美元(据2024-2025年国防部采购记录)。
2018年的胜利是真实的——但它也是Google劳动力最后1次成功约束公司国防野心的时刻。这次胜利也可能在客观上加速了公司的内部调整:既然公开表态会触发员工抗议,那就系统性地重建基础,在下一次更难被干预。
在随后的8年里,Google系统性地重建了一切被那次抗议烧断的桥梁:
2022年12月:Google赢得五角大楼90亿美元JWCC(Joint Warfighting Cloud Capability)云合同的份额,与Amazon、Microsoft、Oracle并列(据国防部采购公告)。这是纯粹的云基础设施合同,没有触及AI模型的伦理边界——但它让Google重新进入了国防采购的核心供应商池。
2025年2月:Google从AI原则中删除了”不用于武器或监控”的禁止性条款(据彭博社报道)。这篇博文由Google DeepMind CEO德米斯·哈萨比斯(Demis Hassabis)联署,理由是”一个更广泛、更复杂的地缘政治环境”。这个时间点耐人寻味:恰好在新的五角大楼谈判开始前不久。
此后:Google将Gemini部署给了300万名国防部工作人员(据The Next Web报道)。这个数字提供了一种规模感:AI伦理争议的受众是580名签名员工,而AI工具实际服务的是300万名政府工作人员。
当那封信的580名签署者在4月27日将信送出时,他们面对的是一个已经以8年时间系统性地重建了他们曾摧毁的一切的组织。
4,000人到580人——不只是数字的变化。它描绘的是一种集体认知的演变:越来越多的人看清了这件事的走向,更多的人计算了代价之后选择了沉默。
「合法」这个词承载了多少重量
这份协议最核心的措辞是”任何合法政府用途”(any lawful government purpose)。
这个词组看起来像一道约束,实际上是一道开口。
“合法”的边界由法律定义,法律由国会制定或行政机构解释。在美国当前的政治环境下,这意味着:行政机构可以通过重新解释”合法”的边界,来重新定义AI系统能被用于什么。完全自主武器系统是否”合法”?这是一个开放的法律问题,不同的行政机构有不同的解读。国内监控的边界在哪里?同样如此——美国最高法院关于数字监控的判例法正在持续演进,行政解释空间极大。
Anthropic的2条红线之所以在谈判中成为问题,正是因为它们是合同级别的明确约束,不随法律解释浮动。五角大楼想要的不是承诺”遵守法律”(这本来就是所有合同方的基本义务),而是确保没有合同条款会在”合法”之外再添加任何约束。
换言之,”任何合法政府用途”的实质是:合同中不设额外限制,唯一的约束是行政机构当时对法律的解读。
这是1个关于权力架构的判断,不只是1个关于伦理的判断:谁来设定边界,政府还是企业?谷歌的选择是:让政府来设定边界。Anthropic的回答曾经是:有2类事情,企业应当自设边界。
伦理作为竞争劣势的结构性困境
这个市场正在展示1个令人不安的机制:在政府AI采购中,明确的伦理限制正在变成系统性的竞争劣势。
Anthropic的遭遇清晰地描绘了这个逻辑链:
- 在合同谈判中坚守2条伦理红线
- 谈判破裂,五角大楼无法接受这2条限制
- 被认定为”国家安全供应链风险”,从供应商名单中被移除
- 竞争对手因放弃同样的限制(或从不设置此类限制)而获得合同
这个序列对整个行业发出了1个明确信号:如果你想服务政府客户,特别是国防客户,明确的合同级伦理限制可能使你处于竞争劣势。更激进的结论是:坚守伦理限制可能导致被完全排除出这个市场。
这里存在1个严峻的博弈论困境,经济学上称为”竞次效应”(Race to the Bottom):如果所有参与者都面临”降低标准才能获得合同”的压力,而率先降低标准的人获得了奖励,那么理性行为者的最优策略是降低标准。这不需要任何恶意——它只是在给定激励结构下的理性反应。
但竞次效应并不总是社会最优解。军事AI的竞次效应产生的外部性由整个社会承担:如果AI系统在没有人工监督的情况下做出了致命错误,如果AI被用于侵犯公民权利的监控,直接损失的不是签约方,而是最终的使用对象和受影响群体。
更深层的影响延伸至全球。当美国最大的AI公司在与世界上最强大的军事组织的合同中主动移除明确的伦理限制时,这1决策就不再只是1个商业决策——它成为了1种全球规范信号。
中国的AI公司在制定自身的国防AI政策时,会参考Google的选择;欧盟在讨论《AI法案》军事豁免条款时,会参考Google的选择;新兴市场的政府在与AI供应商谈判时,会参考Google的选择。”连Google都不要求这些限制了”,这句话会出现在很多谈判桌上,被用来压低任何希望保持边界的供应商。
Anthropic的另一面:被黑名单后的第3条路
这里有1个细节值得补充,以避免过于简化的叙事。
2026年4月21日,在被列入黑名单约2个月后,美国总统特朗普在接受CNBC采访时表示,与Anthropic的五角大楼协议是”可能的”,称Anthropic”在改变”(shaping up)。此前,Anthropic CEO达里奥·阿莫代伊(Dario Amodei)刚刚访问了白宫,与白宫幕僚长苏西·威尔斯(Susie Wiles)和财政部长斯科特·贝森特(Scott Bessent)会面,介绍了公司的新模型Mythos——据Anthropic描述,这是1款专为网络安全任务优化的前沿AI系统,已向特定组织开放。
白宫将这次谈话描述为”富有成效且建设性的”。
这个细节揭示了另1个维度:即使是Anthropic,在面对联邦政府的压力和市场压力时,也在持续地与政府对话,寻找某种形式的重新接入路径。
Anthropic在被列黑名单后的策略并不是彻底退出,而是尝试1种更微妙的第3条路:展示自身的独特能力,试图在不放弃伦理底线的前提下,以”功能差异化”而非”价格更低”的方式重建与政府的关系。Mythos模型专注于网络安全任务——这是1个Anthropic与政府利益最自然交叉的领域,也是伦理争议最少的应用场景。
这个策略的聪明之处在于:它避开了”是否接受任何合法用途”的直接问题,转而问”能否在特定的、可定义的安全应用场景中合作”。这种重新框架,既不是完全妥协,也不是孤注一掷的坚守,而是1种在约束条件下寻找可行空间的务实尝试。
能否成功,取决于政治环境是否容许这种微妙性的存在——而这,目前没有明确答案。从特朗普”他们在改变”的表态来看,这条路至少还没有被完全堵死。
问题是:在1个将明确伦理限制定义为竞争劣势的市场结构中,Anthropic寻求的”特定场景合作”空间能有多大?如果政府的最终目标是获得无限制的AI能力,那么从”特定场景合作”到”全面开放”,距离有多远?这些问题,从当前的公开信息中无法得出确定性答案。
谁来定义边界?3种可能的未来
在缺乏外部约束的情况下,军事AI的伦理边界究竟由谁定义?有3种可能的路径,都在当前正在发展中,但没有1种在近期能够提供完整的解决方案。
路径1:技术约束替代合同约束。与其在合同条款中写入使用限制,AI公司可以在模型本身设置技术护栏——让模型在检测到某类请求时拒绝响应。这种思路已经在部分AI安全研究中被探索,包括宪法AI、RLAIF等方法。问题是:在气隙隔离的军事网络上,AI模型可以被重新微调,护栏可以被有针对性地移除。而且,如果公司本身签署了”任何合法用途”的授权,将很难在法律上主张护栏不可被移除。技术护栏在开放网络上有效,在封闭的分类系统内,其效力依赖于开发者是否真正想维护它。
路径2:立法与国际条约。美国国会可以通过立法,对军事AI的使用设置明确边界;国际社会可以通过条约,为AI武器系统设定最低人道主义标准——类似于《渥太华条约》对地雷的限制,或《生物武器公约》对生化武器的禁止。这是最具系统性的解决路径,但也是最慢的。美国国会在AI监管问题上的立法进展极其有限,而国际AI治理条约的谈判周期通常以十年计。军事AI的部署速度远超立法速度,而正在进行的部署行动会形成既成事实,使后续立法监管更加困难。
路径3:市场信号逆转。如果军事AI合同引发的伦理争议足够大——员工离职、顶尖人才拒绝加入、公众抵制、企业客户因伦理声誉顾虑而流失——AI公司可能会重新计算伦理限制的商业价值。2018年Project Maven的历史表明,这种逆转在特定条件下是可能发生的。问题是:当前的政治环境和市场规模都与2018年有本质差异。AI军事合同市场的规模已经达到数十亿美元的量级,吸引力远超当年;而且,当前政治环境下表达异见的成本更高。2018年4,000人的抗议发生在特朗普第1任期的早期;2026年580人的联名信发生在政治环境已经深刻重塑之后。
这3条路径,都不是在短期内能够解决这个问题的答案。但它们描绘了问题的轮廓:这个问题的解决,需要技术、法律和市场力量的共同作用,而不是单一维度的干预。任何单一维度的努力——无论是公司的伦理承诺,还是员工的抗议联署,还是政策倡导——都是必要的,但都不足够。
军事AI的全球治理真空:为什么这份合同的意义超出美国
这份协议的影响范围不局限于美国国内。在某种意义上,它是当前全球AI治理格局的一面镜子——照出了其中最深刻的结构性缺陷。
没有人负责制定规则
目前全球范围内,对于军事AI的使用,存在以下几个层次的治理:
国际层面:联合国《特定常规武器公约》(CCW)自2014年开始讨论致命性自主武器系统(LAWS)的监管问题,已经讨论了12年,至今未能形成任何具有约束力的协议。美国、俄罗斯、中国均对任何限制LAWS的约束性条约持保留态度。2025年联合国通过的AI治理框架决议,明确将军事和国家安全应用豁免在外。
国家层面:美国国防部在2012年制定了一项关于致命性自主武器系统的指令(3000.09),要求保持适当的人类判断,但这是一项内部指令,不是法律,也不具有合同约束力。并且,什么构成适当的人类判断,由国防部内部决定。
企业层面:AI公司的伦理原则是自愿的,可随时修改(Google在2025年2月的修改就是先例)。即使是最严格的企业AI原则,也没有独立的执法机制。
这3个层次叠加在一起,形成了一个巨大的治理真空:没有1个机构对军事AI的实际部署有真正的监督权力。在这个真空里,任何合法政府用途不是一个保障,而是一种将监督权力完全让渡给行政机构的声明。
竞争逻辑如何传导到其他国家
在AI军事合同领域,大国之间存在一种相互依存的竞争逻辑。当美国最大的AI公司移除伦理限制以赢得政府合同时,这会产生以下传导效应:
对中国:中国AI公司的军事AI开发本来就在国家主导的框架下运作,不存在企业伦理限制的概念。Google的选择对中国没有直接影响,但它削弱了民主国家的科技公司会自我约束这一叙事的说服力。
对欧洲:欧洲AI公司和政府一直试图以更严格的伦理框架(《AI法案》)建立差异化的可信AI品牌。但当美国最大的AI公司明确选择不设限时,欧洲的负责任AI定位在军事采购市场的竞争中可能面临更大的经济压力。
对新兴市场:对于希望发展本国AI能力的国家来说,大国的AI合同实践设定了事实上的参考标准。如果美国的AI公司可以为军事客户提供无限制的AI访问,那么向这些国家出售类似服务的提供商,将面临更少的伦理约束压力。
这个传导机制不是阴谋,而是国际竞争中普遍存在的规范扩散逻辑:当领导者降低标准,跟随者有更少的理由维持更高的标准。
没有答案的问题
这篇文章不以一个整洁的结论结束,因为它本身没有整洁的答案。
政府AI采购的伦理框架,在全球范围内都处于真空状态。没有1个被广泛接受的国际协议规范了军事AI的伦理边界;没有1个执法机制可以强制约束AI公司的国防业务;没有1套被所有大国政府承认的”红线”。
2025年联合国通过的AI治理框架决议没有约束力;欧盟的《AI法案》明确豁免了军事和国家安全用途;G7的AI原则是自愿的、非约束性的指引。
在这个真空里,伦理底线正在通过市场机制被定价:谁的限制最少,谁获得合同;谁坚守限制,谁被排除。这是一种竞次效应:各参与方在市场压力下竞相降低标准,直至某个外部力量介入,或者某次足够严重的失败迫使系统重置。历史上,很多行业的监管框架都是在重大事故之后才建立起来的——核电、金融衍生品、航空安全。军事AI的”重大事故”,代价可能无法承受。
Anthropic的选择在这个框架里是1次昂贵的代价——被黑名单,被排除出数十亿美元的市场。但它也是目前少数几个可以被明确描述为”在政府AI合同中持守伦理边界”的企业级案例,无论最终结果如何。历史会如何评价这个选择,目前无法预判,但它已被记录在案。
Google的选择在商业逻辑上完全可以理解——在当前的激励结构下,几乎是理性的。那580名员工的联名信会成为公司内部难以抹去的记录,但也可能如2018年之后的历史一样,成为1个脚注。
真正悬而未决的问题是:如果连Google这样明确拥有全球最顶尖AI研究团队、最清楚AI能力边界的公司,都不能或不愿意在政府AI合同中坚守任何明确的伦理限制,那么”合法”这个词,还能作为一道防线,保护什么?
从2018年4,000人的抗议,到2026年580人的联名信——数字在缩小,但这不是因为顾虑减少了。而是因为更多的人意识到,在当前的系统性压力下,即使发声,也可能无法改变结果。那些选择沉默的人,不一定是没有顾虑;他们只是做了一个不同的计算。
那580个仍然选择签名的人,他们做了一件在当前环境下不算理性但值得被记录的事。
2026年4月27日,在这条航道上,有580个名字。
然后是24小时,然后是那份合同。然后是下1个问题:接下来会怎样?
参考资料
- Google signs classified AI deal with the Pentagon for ‘any lawful government purpose’ — The Next Web(报道来源:The Information独家,2026年4月28日),Google-五角大楼机密AI协议确认
- Google employees urge Pichai to reject classified Pentagon AI deal — Bloomberg,2026年4月27日,580名Google员工(含20+名VP/总监及DeepMind资深研究员)联名信原始报道
- Trump says Anthropic Pentagon deal is ‘possible’ after blacklisting — CNBC Squawk Box,2026年4月21日,特朗普确认Anthropic”在改变”原始采访
- Google’s AI researchers told management to refuse classified military work — The Next Web,2026年4月27日,Project Maven历史与2025年AI原则修改背景分析
- Trump says Anthropic Pentagon deal is ‘possible’, weeks after blacklisting — The Next Web,2026年4月21日,Anthropic黑名单始末、2亿美元合同与Mythos模型背景