2026年5月12日,OpenAI在官网发布了一篇措辞审慎但影响深远的公告:公司已与美国国防部(Pentagon,官方改名后称”战争部”,Department of War)就AI系统部署达成协议,并且主动公开了协议的核心条款和三条不可逾越的红线。

这件事乍看是一家科技公司与军方谈成了一笔大单。但如果你深入阅读协议细节,会发现这背后是一场精心设计的权力布局——不是OpenAI向军方妥协,而是OpenAI试图通过这份协议,悄然掌握整个AI军事化进程的游戏规则制定权。

这不是一份普通的政府合同。这是一份关于”AI可以帮战争做什么、不可以做什么”的历史性文件。而更深刻的问题是:这些规则,凭什么由一家私人公司来起草?

三条红线:看起来是约束,实质是宣言

OpenAI公布的三条核心红线如下:

红线一:禁止大规模国内监控 OpenAI技术不得用于对美国公民进行大规模国内监控,包括购买或使用商业化个人可识别信息。这条红线在2026年3月2日的协议更新中得到了进一步强化:文本明确引用了美国宪法第四修正案(保护公民免受无理搜查),以及1947年《国家安全法》和1978年《外国情报监控法》。更关键的是,协议明确排除了NSA等情报机构的使用权限——任何涉及美国情报社区的合作都需要另签独立协议。

这意味着,即使是国防部内部的情报分支,也无法通过这份协议获取OpenAI的能力。这是一条范围极广的约束。

红线二:禁止自主武器系统 OpenAI技术不得用于”独立指挥”(independently direct)需要人类控制的自主武器系统。注意这个措辞的微妙之处:”独立指挥”。这意味着AI可以辅助武器决策、提供战场分析、优化后勤调度,但不能自主做出攻击判断——人类必须在决策链路中保持实质控制权。

这条红线对应的是当前国际社会讨论已久的”致命自主武器系统”(LAWS)问题。联合国正在试图制定相关国际公约,但进展缓慢。OpenAI用一份商业合同,在国际条约尚未到来之前,为自己的技术划定了这条线。

红线三:禁止高风险自动决策 不得用于”社会信用”类高风险自动决策系统。这条红线措辞含有明显的地缘政治色彩:它以括号的形式将”社会信用”点出为反面案例。这不仅是技术约束,也是价值宣言——这类技术应用属于威权体制的工具,不属于民主国家。

表面上看,这三条红线是对军方使用权限的约束。但换一个角度深入思考:当一家私人公司成功地对国家军事机构设置了约束条款,意味着什么?

这意味着,在AI军事化这个崭新的领域,OpenAI已经在实质上行使了一部分本属于立法机构的权力——它在国会尚未立法之前,用合同条款定义了”AI武器化的合法边界”。

这种权力的行使,是静悄悄发生的。没有听证会,没有公众辩论,没有民主程序。一份由律师团队起草、两方管理层签署的合同,就完成了这件事。

部署架构:控制权的另一种形式

OpenAI在公告中详细描述了部署架构,这些技术细节同样值得认真解读:

架构细节一:云端部署,不提供边缘设备版本 军方无法直接持有和控制模型,所有调用都必须通过OpenAI的云基础设施进行。从商业角度,这确保了OpenAI的持续收入——只要军方使用AI,OpenAI就持续收费。从控制角度,这保留了OpenAI随时切断访问的能力。如果某一天OpenAI认为军方违反了协议,理论上可以关闭服务。这是一种真实的技术制衡。

架构细节二:OpenAI保留完全的安全栈控制权 哪些内容被允许、哪些被拒绝,最终由OpenAI的分类器系统决定,不是军方。公告明确表示:”我们保留对安全栈的完全自主权,包括分类器的运行和更新。” 这意味着军方得到的是一个”受管控的AI能力”,而不是一个可以随意使用的工具。

架构细节三:安全许可人员全程参与 已获得安全许可的OpenAI人员将参与部署和运维。这相当于在军方合同执行过程中,始终有商业公司的人员在场——既是技术支持,也是监督机制。这个设计保证了OpenAI不只是把模型交给军方、转身不管,而是深度介入整个使用过程。

合同原文还明确写道,禁止使用方”在法律、法规或部门政策要求人类控制的情况下,以AI系统独立指挥自主武器”。这条措辞表面严格,但解释权的问题没有解决:什么情况算”法规要求人类控制”?这个判断,目前没有明确的仲裁机制。

“比Anthropic护栏更多”:一句话挑起行业竞争

公告中有一句话特别值得放大解读:

“我们认为我们的协议拥有任何分类AI部署协议中最多的护栏,包括Anthropic的协议。”

OpenAI主动将自己与Anthropic做了比较,并声称超越了后者。这不是一句谦虚的话,而是一次精准计算的行业定标。

Anthropic此前也与美国军方有合作,但并未以同样的透明度公开协议细节。OpenAI选择公开,并主动与Anthropic对比,这一操作建立了一个隐性的行业基准线:要想与军方合作,你的护栏需要至少与OpenAI的这份协议相当。

更进一步,公告结尾明确邀请其他AI公司加入类似框架,声称”这将为其他实验室与国防部的合作创造路径”。

这个操作的逻辑链条是:

  1. 你率先与军方签约,并公开条款;
  2. 声称自己的标准最高;
  3. 邀请其他公司”跟随”;
  4. 未来监管讨论中,你自然成为”标准”的起草者。

这不是合规,这是竞争策略。OpenAI在AI治理这场博弈中,用一份军事合同为自己抢占了道德制高点。

历史背景:AI与军方的关系是怎么一步步走到这里的

理解这份协议,必须有一个更长的历史视角。

2022年,OpenAI的使用政策中明确禁止军事和武器相关应用。2023年,OpenAI悄然更新了使用政策,删除了这一明确禁止条款,改为更模糊的”对人类有害的武器”表述。这一变化当时没有引起太多公众注意。

2024年,随着大语言模型在情报分析、战场模拟、后勤优化等场景的能力逐渐明确,美国国防高级研究项目局(DARPA)、各军种的研究机构开始与多家AI公司深度接触。AI公司们面临的选择越来越具体:接受军事合同,还是坚守民用立场?

2025年底到2026年初,这个选择变得不可回避。美国国防战略中AI被明确列为核心竞争力,预算向AI基础设施大幅倾斜。在这个背景下,2026年5月12日的协议,不是突然发生的,而是一个历史趋势的阶段性明文化。

从2022年”明确禁止军事应用”到2026年”签署军事合作协议并公开三条红线”,OpenAI在4年内完成了一次180度的战略转向。公司官方的解释是:AI能力的提升使得军方应用从”应该禁止”变成了”应该有所约束但可以进行”。批评者的解释则简单得多:这是一个市场规模达数百亿美元的客户,无法拒绝。

对立视角:也许这是目前最不坏的选项

公平地说,另一个视角也有其内在说服力,不能简单忽视。

论点一:自我约束优于毫无约束 在政府监管框架尚未形成的情况下,AI军事化会按照最低公分母原则发展——哪家公司的限制最少、报价最低,哪家赢得合同。如果连OpenAI的三条红线都没有,结果可能远比现在更糟糕。私人公司的自我约束,至少比完全没有约束要好。

论点二:商业参与优于政府垄断 一个更危险的替代方案是政府自主开发军事AI——中国和俄罗斯都在大力投入这条路线。商业公司参与军事AI开发,至少保留了一个外部方(公司自身)有意愿和能力说”不”的可能。政府内部自研的AI武器系统,没有这个制衡机制。

论点三:透明度本身有价值 OpenAI选择主动公开协议细节,这是一种稀缺的透明度。比较之下,据公开信息,Anthropic并未以同等详细程度公开其军事合作协议细节——OpenAI选择的这种透明度,至少使得公众讨论成为可能,也使得外部监督和批评成为可能。如果所有AI军事合同都像情报合同一样保密,情况会更糟。

论点四:时机上别无选择 2026年,美国国家安全战略已经明确依赖先进AI,这个方向不会因为OpenAI拒绝合作而改变。拒绝意味着这个空间由约束更少的公司填补,或者由政府自主研发。在这两个选项都可能更坏的情况下,OpenAI选择参与并设定护栏,从结果导向看是合理的。

然而,这些论点都无法回答那个更根本的问题:这些规则的合法性来自哪里?

商业合同的合法性来自双方同意。宪法的合法性来自人民授权。而OpenAI这份协议,它的合法性基础是什么?是OpenAI的商业判断,还是更广泛的社会授权?

深层结构:AI公司的”监管套利”时代

将OpenAI军方协议放在一个更宏观的框架下分析,会发现一个系统性规律:领先的AI公司正在系统性地利用监管空白期,进行”规则预设”——即在监管到来之前,让自己的标准成为行业默认值。

版权领域的前车之鉴 当AI训练数据版权的法规还未成型,OpenAI等公司通过与出版商的大量谈判和针对作者集体诉讼的和解,初步划定了”付费使用内容”与”视为合理使用”之间的边界。Anthropic目前正在接受法官审议的那份15亿美元作者集体诉讼和解,就是这个过程的缩影。这些和解协议正在成为立法者讨论的参考基准,而不是相反——公司率先定义了什么是”可接受的训练数据使用”,法律跟在后面接受或拒绝这些定义。

安全领域的标准战争 当AI安全立法还在各国讨论阶段,Anthropic的Constitutional AI、OpenAI的安全团队报告、多家公司共同签署的安全承诺,已经构建了一套事实上的”行业软法”。这些软法影响着公众预期、影响着投资者评估,也影响着政策讨论的起点。

现在:军事领域的规则圈地 当军事AI的国际法规(如LAWS公约)和各国国内立法都还缺失,OpenAI通过主动公开协议并设定三条红线,在占据道德高地的同时锁定了规则话语权。

这是一种精密的时间套利逻辑:在监管到来之前,把你的标准变成行业默认值。这样,当监管终于到来,你已经是”负责任的那一方”,监管成本和合规摩擦将主要由那些没有率先设定标准的后来者承担。

这个逻辑在商业战略上是无可挑剔的。但从民主治理的角度看,它提出了一个值得严肃追问的问题:关于战争可以使用哪些AI工具、不能使用哪些,这些影响人类命运的规则,真的应该由私人公司的法务团队和管理层来起草吗?

民主治理的设计方式是:立法机构公开讨论,公民参与,司法独立监督,行政部门执行。而OpenAI这份协议绕过了所有这些环节。

执行机制的悬空:最关键的问题没有答案

阅读这份协议,一个显著的缺失是执行和验证机制。

三条红线划定了,但谁来核查军方是否遵守?

协议中提到OpenAI会”独立验证这些红线未被越过”,并运行分类器来实施。但分类器本身并非万能:它可以在已知的违规模式上提供一定拦截,但无法应对所有场景,也无法覆盖超出训练分布的新用法。

更根本的是:如果军方违反了协议,OpenAI能做什么?会做什么?

理论上,OpenAI可以中止合同、切断服务。但在实际操作中,当国家安全被援引为理由,商业公司有多大的意愿和能力对抗一个拥有执法权、合规压力工具和庞大合同规模的政府客户?

硅谷和华盛顿之间的权力不对称,不会因为一份合同中写了”红线”就消失。这份协议在最悲观的情境下可能只是一纸文书,其真实约束力取决于OpenAI在极端情况下是否愿意和能够承担违约带来的代价。

历史上不乏这样的案例:科技公司与政府客户签了严格的数据隐私条款,但在实际压力下悄然让步。值得注意的是,这里有一个重要区分——历史案例中让步给威权政府(如雅虎在2005年向中国当局提供用户数据导致记者坐牢,谷歌在中国市场的”蜻蜓计划”被迫关停)与向民主政府让步在性质上不同。OpenAI面对的是美国政府,后者受到宪法、国会监督和司法审查的约束。但即便在民主体制下,科技公司面对强势政府客户让步的案例同样存在:企业可能以不公开的方式扩展数据访问权限,或在合同续约压力下模糊地带逐渐扩大。这种风险不因政体不同而消失,只是表现形式不同。

协议文本是一种意图声明,不是一种保证。

这件事真正的历史意义

不管你认为OpenAI这份协议是正确的还是有问题的,有一件事是确定的:

AI与战争的边界,在2026年5月12日,被第一次以私人商业合同的形式明文化了。

这个时刻的历史地位,类似于1945年后核武器俱乐部开始形成之初的那段时期——规则尚未确立,强者在规则真空中用自己的标准定义游戏。原子能从曼哈顿计划到《不扩散核武器条约》花了约20年。AI的进程会快得多,因为这个领域没有耐心等待二十年。

OpenAI的这三条红线,不是AI军事治理的终点,而是第一个基准文本。它会被引用,被比较,被突破,被更新。下一家AI公司与国防部谈判时,这份文件将成为隐性的起点。

但有几个问题,那份协议没有回答,而且将越来越紧迫:

第一,执行问题:当冲突真正发生,这些红线靠什么来保证?是技术架构?合同条款?还是公司信誉?

第二,合法性问题:这些关乎战争边界的规则,应该由私人公司定义,还是应该通过民主程序产生?

第三,竞争问题:当OpenAI设定了”护栏最多”的标准,中国的AI公司没有这套约束。这种”有护栏”与”无护栏”之间的不对称,在军事竞争逻辑下,会不会最终倒逼美国公司降低标准?

第四,技术漂移问题:随着AI能力的持续提升,今天看起来安全的”辅助决策”,明天可能已经实质等同于”自主决策”。这份协议中的语言,能跟上技术变化的速度吗?

这些问题的答案,不在那份5月12日的公告里。但它们将决定:OpenAI这三条红线,究竟是AI军事化进程中真正有意义的约束,还是一次精心包装的公关动作。


参考资料

  1. OpenAI, “Our agreement with the Department of War” (2026-05-12, 更新于2026-03-02): https://openai.com/index/our-agreement-with-the-department-of-war/
  2. 日报素材(2026-05-16 采集),事件日期2026-05-12,来源:openai.com,摘要:三条红线 + 与Anthropic协议对比 + 国内监控禁止 + 自主武器限制