2026年4月7日,OpenAI 在其官方网站发布了一份13页的经济分析报告。这份报告没有发布新模型,没有展示新能力,而是提出了3项政策建议:对AI自动化征收「机器人税」(robot taxes)、建立公共财富基金(public wealth fund)、推动4天工作制(four-day workweek)。(来源: OpenAI官方博客, 2026-04-07)

同一周,Stargate项目——OpenAI与SoftBank合作的超大规模AI基础设施计划——3位高管同时出走。(来源: 36氪, 2026-04-07) 一边是内部治理的裂痕肉眼可见,一边是对外高调扮演「AI时代的政策设计师」。

这个画面本身就是一个隐喻:一家正在准备IPO、年化收入达到250亿美元量级的公司(来源: Humai Blog, 2026年报道),主动告诉政府应该如何对AI征税、如何分配AI创造的财富、甚至人们应该每周工作几天。

问题不在于这些建议好不好。问题在于:为什么是OpenAI来提这些建议?当球员开始给裁判写规则手册,我们应该看的不是手册内容,而是球员的手。


第一章:蓝图全貌——13页报告到底说了什么

三大核心提案

OpenAI的经济分析报告围绕一个核心前提展开:超级智能(superintelligence)即将到来,其对劳动力市场的冲击将是系统性的、不可逆的。(来源: Business Insider, 2026-04-07) 在这个前提之下,报告提出了3个相互关联的政策建议:

第一,机器人税(Robot Taxes)。 报告建议对替代人类劳动的AI系统征收专项税。这不是一个全新概念——Bill Gates早在2017年就提出过类似想法——但OpenAI将其具体化为一个政策框架:当AI系统执行了原本由人类完成的工作任务时,该系统的部署者应当缴纳与被替代劳动力相关的税收。(来源: IBTimes Singapore, 2026-04-07)

第二,公共财富基金(Public Wealth Fund)。 机器人税的收入不进入一般财政,而是注入一个专门的公共财富基金。这个基金的运作逻辑类似于挪威的主权财富基金或阿拉斯加的永久基金(Alaska Permanent Fund),将AI产业创造的部分价值以直接支付或公共服务的形式重新分配给公民。(来源: TechCrunch, 2026-04-06)

第三,4天工作制(Four-Day Workweek)。 报告认为,AI将大幅提升生产力,使得维持当前经济产出所需的人类劳动时间显著减少。因此,应当逐步过渡到每周4天工作制,让生产力红利以「更多闲暇时间」的形式惠及全体劳动者。(来源: Forbes, 2026-04-08)

报告的叙事策略

值得注意的是这份报告的措辞策略。它没有使用「我们建议政府这样做」的命令式口吻,而是采用了一种「我们作为行业参与者,认为以下方向值得探讨」的姿态。Forbes的报道将其定位为OpenAI首次系统性提出AI经济政策框架。(来源: Forbes, 2026-04-08)

但13页的篇幅、3个具体政策工具、从税收设计到再分配机制的完整链条——这不是「探讨」,这是一份政策蓝图。WinBuzzer的报道直接将其与OpenAI的IPO准备联系起来,标题写道:「OpenAI Pushes Robot Taxes, Public Wealth Fund Ahead of IPO」。(来源: WinBuzzer, 2026-04-07)

一家即将上市的公司,在上市前夕发布一份完整的税收政策建议。这不是学术研究,这是公共关系与政策游说的交叉操作。


第二章:球员当裁判——为什么是OpenAI来提这些建议?

动机拆解:3层逻辑

表层逻辑:负责任的行业领袖。 OpenAI的官方叙事很清晰——我们是最了解AI能力边界的人,我们有责任提前预警并提出解决方案。这个叙事在公关层面几乎无懈可击。谁能批评一家主动说「请对我们征税」的公司?

中层逻辑:抢占政策话语权。 这是更值得分析的层面。AI监管是一场正在全球展开的博弈。欧盟有AI Act,中国有生成式AI管理办法,美国国会有数十项待审的AI相关法案。在这个窗口期,谁先定义问题框架,谁就在很大程度上决定了解决方案的边界。

OpenAI选择的框架是:AI的核心问题是分配问题,而不是安全问题、垄断问题或权力集中问题。 这个框架选择本身就是一个战略决策。如果公众和政策制定者接受了「AI的主要挑战是如何分配其创造的财富」这个前提,那么关于AI是否应该被限制发展、是否需要拆分大型AI公司、是否应该开源核心模型等更根本性的问题,就被排除在了讨论范围之外。

深层逻辑:为IPO构建政治护城河。 Humai Blog的报道指出,OpenAI年化收入已达250亿美元规模,正在积极准备IPO。(来源: Humai Blog, 2026年) 对于一家即将进入公开市场的公司来说,最大的估值风险不是技术竞争,而是监管不确定性。如果OpenAI能够在上市前建立起「我们是负责任的AI公司,我们主动提出了社会契约」的叙事,那么未来任何针对AI行业的严厉监管提案,OpenAI都可以说:「我们早就提出了解决方案,请参考我们的框架。」

这是一种经典的「监管俘获」(regulatory capture)策略的变体——不是在监管出台后游说修改,而是在监管成型前预设框架。

Sam Altman与Vinod Khosla的共识:重写税法

Fortune的报道揭示了一个关键细节:Sam Altman与硅谷顶级风险投资人Vinod Khosla达成了一个共识——AI将从根本上颠覆美国现行的所得税体系。(来源: Fortune, 2026-04-07)

这个共识的含义远比表面看起来深刻。美国联邦税收的最大来源是个人所得税和工资税(payroll tax),两者合计占联邦收入的约80%以上。如果AI大规模替代人类劳动,工资总额下降,那么建立在工资基础上的整个税收体系将面临结构性收缩。

Altman的论点是:与其等到税基崩塌后被动应对,不如现在就设计新的税收机制来替代。机器人税就是这个替代方案的核心。

但这里有一个Altman没有明说的逻辑:如果机器人税替代了所得税成为主要税种,那么AI公司缴纳的机器人税在政治上就等同于「养活了整个国家」。 这将赋予AI行业前所未有的政治谈判筹码——类似于石油行业在中东产油国的地位,或者金融行业在英国的地位。缴税最多的行业,在政策博弈中的话语权最大。

OpenAI不是在提议给自己加负担。OpenAI是在提议用一种新的负担来替代可能更重的旧负担,同时获得「我们养活了公共财富基金」的政治叙事权。

内部治理的裂痕:Stargate高管出走

就在这份政策蓝图发布的同一时期,OpenAI的Stargate项目——与SoftBank合作的超大规模AI基础设施计划——3位高管同时离职。36氪的报道用「屋漏偏逢连夜雨」来形容这一局面。(来源: 36氪, 2026-04-07)

3位高管同时出走,在任何公司都不是正常的人事变动。这意味着要么是战略分歧,要么是管理冲突,要么两者兼有。Stargate是OpenAI最重要的基础设施项目之一,其高管团队的集体离开,暴露的是OpenAI内部治理能力与其外部政策野心之间的巨大落差。

一个连自己最重要的基础设施项目都无法稳定管理团队的公司,却在告诉美国政府应该如何重新设计税收体系和社会契约。这种反差本身就值得深思:OpenAI的政策蓝图,是否部分是一种转移注意力的策略? 当媒体和公众在讨论机器人税和4天工作制时,Stargate项目的管理混乱就不那么引人注目了。

这或许是过度解读。但在分析公司行为时,时机选择(timing)往往比内容本身更能揭示真实意图。


第三章:机器人税的经济逻辑与政治博弈

机器人税的设计难题

机器人税的概念听起来简单——AI替代了人类工作,就对AI征税——但在实际操作中,它面临至少4个根本性的设计难题:

难题1:如何定义「替代」? 一个AI客服系统替代了10个人工客服,这是明确的替代。但一个AI辅助编程工具让1个程序员的效率提升了3倍,这算替代了2个程序员吗?一个AI驱动的供应链优化系统减少了15%的物流岗位,但同时创造了5%的AI运维岗位,净替代是10%还是15%?

OpenAI的报告并没有给出这些问题的具体答案。IBTimes Singapore的报道指出,报告更多是在政策方向层面提出建议,而非提供可执行的技术细节。(来源: IBTimes Singapore, 2026-04-07)

难题2:征税对象是谁? 是AI模型的开发者(如OpenAI)?还是AI系统的部署者(如使用OpenAI API的企业)?还是两者都征?如果对开发者征税,那么开源模型怎么办?Meta的Llama系列是开源的,谁来为使用Llama替代人类工作的行为缴税?

这个问题对OpenAI来说尤其微妙。如果机器人税主要由部署者(即OpenAI的客户)承担,那么OpenAI作为模型提供者实际上不直接承担税负——税负转嫁给了下游企业。如果机器人税主要由开发者承担,那么闭源商业模型(如OpenAI的GPT系列)将面临比开源模型更高的税负,因为开源模型的「开发者」是分散的社区,难以征税。

难题3:国际竞争的囚徒困境。 如果美国单方面实施机器人税,而中国、印度、欧盟不实施,那么AI密集型产业将向低税率地区转移。这与碳税面临的困境完全一致。OpenAI的报告是否建议了国际协调机制?从目前公开的报道来看,截至本文发布时暂无关于国际协调机制的详细描述。

难题4:税率如何确定? 税率太低,无法弥补因工资税减少而导致的财政缺口。税率太高,抑制AI采用和创新。最优税率在哪里?这需要精确估算AI替代劳动力的速度和规模——而这恰恰是目前最不确定的变量。

谁是机器人税的真正受益者?

表面上看,机器人税的受益者是被AI替代的劳动者——税收进入公共财富基金,以某种形式返还给公民。但如果我们拆解利益链条,画面会更复杂。

受益者1:OpenAI自身。 机器人税创造了一个「AI公司缴税养活社会」的叙事。这个叙事的政治价值是巨大的。它意味着:即使AI大规模替代就业,只要机器人税在运作,社会就不会崩溃。因此,不需要限制AI的发展速度,不需要强制开源,不需要拆分大型AI公司。机器人税成了一个「赎罪券」——只要缴了税,就可以继续快速推进AI部署。

受益者2:大型AI公司相对于小型AI公司。 机器人税是一种合规成本。大公司有法务团队、税务团队、政府关系团队来处理复杂的税务计算和申报。小公司和初创公司没有这些资源。任何增加合规成本的监管,都天然有利于在位者(incumbents),不利于挑战者(challengers)。

这是一个在监管经济学中反复出现的模式:大公司主动推动监管,因为监管的合规成本对大公司是边际成本,对小公司是生存成本。OpenAI作为AI行业最大的公司之一,推动机器人税,客观上提高了行业进入壁垒。

受益者3:闭源模型相对于开源模型。 如前所述,机器人税的征收需要明确的纳税主体。闭源商业模型有明确的运营者,容易征税。开源模型的使用者分散,征税困难。如果机器人税的执行偏向于对可追踪的商业API调用征税,那么开源模型的用户将享受事实上的税收优惠——但这也意味着开源模型的开发者(如Meta)无法从机器人税中获得「负责任企业」的政治信用。

更重要的是,如果机器人税的框架最终要求所有AI部署都需要注册和报告,那么开源模型的自由使用将受到限制。这对OpenAI的闭源商业模式是一个结构性利好。

Altman的税法颠覆论

Fortune的报道中,Sam Altman与Vinod Khosla关于AI将颠覆税法的讨论,揭示了一个更大的图景。(来源: Fortune, 2026-04-07)

Altman的核心论点是:美国的所得税体系建立在「大多数人通过工资获得收入」的假设之上。如果AI使得越来越多的经济价值由资本和技术而非劳动创造,那么所得税的税基将持续萎缩。机器人税本质上是一种「资本对劳动的替代税」——它试图在资本替代劳动的过程中截取一部分价值,用于弥补劳动收入减少带来的税收损失。

Khosla作为风险投资人的参与尤其值得注意。风险投资行业是AI繁荣的最大金融受益者之一。当Khosla说「AI将颠覆税法」时,他实际上在说:「当前的税法对资本收益的征税方式(如长期资本利得税率低于所得税率)可能无法持续。」这是一种前瞻性的让步——在公众愤怒到来之前,主动提出一个可控的替代方案。

但这里有一个关键的缺失:Altman和Khosla都没有讨论对AI公司的股权和利润征收更高税率的可能性。 机器人税针对的是AI的「使用」,而非AI公司的「利润」。如果OpenAI通过API收费获得250亿美元年收入,机器人税由使用API的客户承担,而OpenAI的利润仍然按照现行公司税率纳税。

换言之,机器人税的设计可能将税负从AI开发者转移到AI使用者身上。这对OpenAI作为平台型公司来说,是一个极其有利的税收架构。


第四章:4天工作制与「AI红利」的分配幻想

生产力提升≠劳动者受益

OpenAI提出4天工作制的前提假设是:AI将大幅提升生产力,使得人类可以用更少的工作时间维持甚至超越当前的经济产出。(来源: Forbes, 2026-04-08)

这个假设的前半部分——AI将提升生产力——大概率是正确的。但后半部分——生产力提升将转化为更少的工作时间——在经济史上几乎从未自动发生过。

自工业革命以来,人类社会经历了多轮重大的生产力提升:蒸汽机、电力、流水线、计算机、互联网。每一轮技术革命都大幅提升了单位劳动时间的产出。但工作时间的减少远远滞后于生产力的提升,而且主要是通过劳动者的集体行动(工会运动、罢工、立法斗争)实现的,而非雇主的主动让步。

美国的工作时间从19世纪末的每周60+小时降至20世纪中期的40小时,核心驱动力是工会运动和联邦立法(1938年的《公平劳动标准法》)。此后,尽管生产力在过去80年中持续增长,美国的标准工作周一直停留在40小时。生产力红利去了哪里?答案是:主要流向了资本所有者和高管薪酬,而非劳动者的闲暇时间。

OpenAI的4天工作制提案中,有什么强制机制来确保这次不一样?从目前公开的报道来看,答案是:没有。

Business Insider的报道指出,OpenAI的政策蓝图以「超级智能」带来的社会动荡为前提。(来源: Business Insider, 2026-04-07) 但报告更多是在描绘愿景,而非设计执行机制。4天工作制是一个美好的口号,但如果没有立法强制、没有工会谈判、没有对加班的严格限制,它就只是一个公关话术。

4天工作制对谁有利?

让我们做一个思想实验:假设4天工作制真的在AI产业推动下实现了。谁受益最大?

场景1:薪资不变,工作日减少。 这是劳动者的理想场景——同样的薪水,少工作1天。但这意味着企业的单位劳动成本上升了约20%。在竞争性市场中,企业会如何应对?答案是:加速用AI替代人类劳动。4天工作制反而会加速自动化,进一步减少就业岗位。

场景2:薪资按比例减少,工作日减少。 这是企业的理想场景——劳动者每周工作4天,薪资降低20%。但这意味着劳动者的实际收入下降,需要公共财富基金来补贴差额。而公共财富基金的来源是机器人税。整个链条变成了:AI替代劳动→机器人税收入→公共财富基金→补贴减薪劳动者。

在这个链条中,OpenAI的角色是什么?它是AI系统的提供者,从客户的AI部署中收取费用。客户缴纳机器人税。公共财富基金补贴劳动者。OpenAI本身既不直接承担税负,也不直接参与再分配。它只是在整个链条的起点,收取平台费用。

这就是OpenAI政策蓝图的精妙之处:它设计了一个完整的再分配系统,而自己恰好处于这个系统中税负最轻、收益最大的位置。

4天工作制的政治功能

4天工作制在OpenAI的政策蓝图中还有一个更隐蔽的功能:它是一个「社会稳定器」的叙事。

AI大规模替代就业的最大政治风险是什么?是失业者的愤怒和社会动荡。如果公众的预期是「AI会让我失业」,那么反AI的政治运动将不可避免。但如果公众的预期是「AI会让我每周只工作4天」,那么AI就从威胁变成了福利。

OpenAI的4天工作制提案,本质上是在重新定义公众对AI的心理预期。它试图将AI叙事从「AI抢走你的工作」转变为「AI给你更多的自由时间」。这个叙事转换对OpenAI的商业利益至关重要——一个被公众欢迎的AI行业,比一个被公众恐惧的AI行业,在估值上可能相差数个量级。


第五章:公共财富基金——谁来管理AI时代的「全民分红」?

挪威模式的AI翻版

OpenAI提出的公共财富基金,在概念上借鉴了挪威政府养老基金(Government Pension Fund Global)的模式。挪威将石油收入注入主权财富基金,通过全球投资实现资产增值,收益用于公共服务和代际公平。(来源: TechCrunch, 2026-04-06)

但AI与石油有一个根本区别:石油是一种有限的自然资源,其开采权天然属于国家。AI是一种由私营公司开发的技术,其知识产权属于开发者。挪威可以对石油公司征收高达78%的特别税,因为石油在挪威的领土之下。但AI模型不在任何国家的领土之下——它在数据中心里,而数据中心可以搬到任何地方。

这意味着公共财富基金的资金来源(机器人税)面临严重的征收可行性问题。如果税率过高,AI公司可以将计算基础设施迁移到低税率国家。如果税率过低,基金规模不足以实现有意义的再分配。

基金治理:谁来决定钱怎么花?

一个更根本的问题是:公共财富基金由谁管理?OpenAI的报告建议由政府管理,但具体的治理结构是什么?基金的投资策略是什么?分配机制是什么?

creati.ai的中文报道指出,OpenAI的提案涵盖了机器人税、公共财富基金与4天工作制,但在治理细节上留下了大量空白。(来源: creati.ai, 2026-04-07)

这些空白不是疏忽,而是策略。当你提出一个宏大的政策框架但不填充细节时,你实际上是在邀请政策制定者在你的框架内进行填充。框架的边界已经被你设定了——讨论的是「如何征收机器人税」,而不是「是否应该限制AI发展速度」;讨论的是「公共财富基金如何分配」,而不是「AI公司是否应该被拆分」。

这是一种高级的议程设置(agenda-setting)技术:不控制答案,但控制问题。

与Universal Basic Income的微妙距离

值得注意的是,OpenAI的公共财富基金提案与Sam Altman此前推动的Universal Basic Income(UBI)实验之间的关系。Altman曾通过其个人项目资助过UBI试点。但在这份官方报告中,OpenAI选择了「公共财富基金」而非「UBI」的表述。

这个措辞选择是刻意的。UBI在美国政治语境中是一个高度极化的概念——左翼视其为社会正义,右翼视其为「养懒人」。公共财富基金则是一个更中性的概念,它暗示的是「投资回报的分享」而非「无条件的施舍」。这个叙事更容易获得跨党派支持。

但实质上,如果公共财富基金最终以现金形式直接支付给公民,它就是UBI的另一个名字。OpenAI只是给同一个概念换了一个更容易被接受的包装。


第六章:大多数人没看到的——政策蓝图作为IPO叙事工具

时间线的巧合

让我们把时间线排列出来:

  • OpenAI年化收入达到250亿美元规模,正在准备IPO。(来源: Humai Blog, 2026年)
  • 2026年4月7日,发布13页经济分析报告,提出机器人税、公共财富基金、4天工作制。(来源: OpenAI官方博客, 2026-04-07)
  • 同一时期,Stargate项目3位高管同时出走。(来源: 36氪, 2026-04-07)
  • WinBuzzer直接在标题中将政策蓝图与IPO准备联系起来。(来源: WinBuzzer, 2026-04-07)

对于一家准备IPO的公司来说,最大的估值折扣因素是什么?是监管风险。如果投资者担心AI行业可能面临严厉的、不可预测的监管,他们会在估值中打入巨大的风险折扣。

OpenAI的政策蓝图,从IPO的角度来看,是一个「监管风险对冲工具」。它向潜在投资者传递的信号是:

  1. 我们已经预见到了监管风险。
  2. 我们已经提出了一个行业可以接受的监管框架。
  3. 如果政府采纳我们的框架,监管将是可预测的、可管理的。
  4. 因此,投资我们的监管风险低于市场预期。

这个信号对估值的影响可能是数百亿美元量级的。一个「负责任的AI公司」的叙事,在IPO路演中的价值是不可估量的。

与竞争对手的不对称影响

OpenAI的政策蓝图如果被政府采纳,对不同类型的AI公司会产生不对称的影响:

对OpenAI(闭源、平台型、高收入): 机器人税由客户承担,OpenAI作为平台收取API费用,税负间接影响但不直接承担。「负责任企业」的品牌价值提升。IPO估值获得监管确定性溢价。

对Anthropic(闭源、但规模较小): 面临与OpenAI相同的监管框架,但合规成本占收入比例更高。在「负责任AI」的叙事竞争中处于追随者位置。

对Meta(开源模型,如Llama): 机器人税的征收对象难以锁定,因为开源模型的使用者分散。如果监管要求所有AI部署都需要注册和报告,开源模型的自由使用将受到限制。

对初创公司: 合规成本成为新的进入壁垒。机器人税的计算和申报需要法务和税务资源,这是初创公司最缺乏的。

对中国AI公司(如字节跳动、百度、阿里巴巴): 如果美国实施机器人税而中国不实施,中国AI公司在成本上将获得优势。但这也可能被美国政策制定者用作「国家安全」论据——「我们不能单方面给AI加税,因为中国不会跟进。」

这个分析揭示了一个关键洞察:OpenAI的政策蓝图,在竞争格局中对OpenAI自身最有利,对其最直接的竞争对手最不利。 这不一定是刻意设计的,但它是一个客观的结构性结果。而当一个政策的最大受益者恰好是该政策的提出者时,我们有理由对其动机保持警惕。


第七章:对立视角——也许OpenAI是对的?

正方论证:总得有人先开口

公平地说,AI对劳动力市场的冲击是一个真实的、紧迫的问题。而在美国的政策制定过程中,行业参与者的政策建议是正常的、甚至是必要的。如果不是OpenAI来提出这些建议,谁来提?

学术界的研究周期太长,等论文发表时窗口期可能已经过去。政府官员对AI技术的理解有限,他们需要行业输入。工会在AI领域几乎没有组织基础。消费者权益组织缺乏技术专业知识。

在这个背景下,OpenAI作为最了解AI能力边界的公司之一,主动提出政策建议,至少开启了一个重要的公共讨论。即使其动机不纯,讨论本身也是有价值的。

Forbes的报道也指出,OpenAI的提案是AI行业首次系统性地提出经济政策框架。(来源: Forbes, 2026-04-08) 无论动机如何,这个先例本身就有意义。

反方论证:框架比内容更危险

但我的判断是:OpenAI政策蓝图的真正危险不在于它的具体建议(机器人税、公共财富基金、4天工作制),而在于它设定的讨论框架。

这个框架的核心假设是:AI的发展速度和方向是给定的,不可改变的,我们唯一能做的是设计更好的再分配机制。这个假设排除了一系列更根本性的政策选项:

  • 是否应该要求AI模型在部署前通过独立的安全审计?
  • 是否应该限制单一公司在AI计算资源上的集中度?
  • 是否应该要求AI训练数据的来源透明化,并向数据创作者支付报酬?
  • 是否应该建立公共的、开源的AI基础设施,以打破私营公司的垄断?
  • 是否应该赋予劳动者对AI部署的否决权(如工会在自动化决策中的参与权)?

这些问题在OpenAI的政策蓝图中完全缺席。这不是疏忽,这是选择。OpenAI选择了一个对自己最有利的讨论框架,然后在这个框架内提出了看似慷慨的建议。

这就像一个石油公司说:「我们应该征收碳税,用收入建立气候基金。」听起来很负责任。但它同时排除了「我们应该逐步淘汰化石燃料」这个更根本性的选项。碳税让石油公司继续运营并缴税;淘汰化石燃料让石油公司不存在。OpenAI的机器人税让AI公司继续快速部署AI并缴税;限制AI发展速度让OpenAI的增长放缓。

当你理解了框架选择的逻辑,你就理解了整份报告的真正意图。


结语:AI治理的「狐狸守鸡笼」困境

回到本文开头的问题:当最大受益者书写分配规则,谁在被保护?

答案很清楚:规则的书写者在被保护。

OpenAI的13页经济分析报告,是一份精心设计的文件。它同时服务于多个目标:

  1. 公关目标:塑造「负责任的AI领袖」形象。
  2. 政策目标:在监管成型前预设有利于自身的框架。
  3. 商业目标:为IPO降低监管风险折扣。
  4. 竞争目标:通过增加合规成本提高行业进入壁垒。

这并不意味着机器人税、公共财富基金和4天工作制本身是坏主意。它们可能是应对AI冲击的有效工具。但工具的设计者不应该是工具的最大受益者。

真正的AI治理需要什么?需要独立于产业利益的制度设计。具体来说:

第一,独立的AI影响评估机构。 类似于美国的国会预算办公室(CBO),但专门评估AI政策的经济和社会影响。这个机构不应由AI公司资助,不应雇佣AI公司的前员工,不应接受AI公司的数据垄断。

第二,劳动者在AI部署决策中的参与权。 欧洲的共同决定制度(Mitbestimmung)提供了一个参考——劳动者代表在企业董事会中拥有席位,对包括自动化在内的重大决策拥有发言权。

第三,AI训练数据的公平补偿机制。 AI模型的价值建立在海量人类创作的数据之上。如果AI公司要为「替代劳动」缴税,它们也应该为「使用数据」付费。这是OpenAI的报告完全没有提及的——因为数据成本是OpenAI最大的潜在负债之一。

第四,公共AI基础设施。 如果AI真的将成为像电力一样的基础设施,那么它就不应该完全由私营公司控制。公共的、开源的、由政府或国际组织维护的AI基础设施,是打破私营垄断的唯一可靠路径。

OpenAI的政策蓝图开启了一个重要的对话。但对话的结论不应由对话的发起者预设。当Sam Altman告诉你应该如何分配AI创造的财富时,记住一个简单的事实:他首先是AI财富的创造者和拥有者,其次才是政策建议者。

规则不应由球员来写。即使这个球员声称他是为了全场观众的利益。尤其是当这个球员正在准备IPO的时候。


参考资料

  1. OpenAI’s new economic analysis — OpenAI, 2026-04-07
  2. OpenAI’s vision for the AI economy: public wealth funds, robot taxes, and a four-day work week — TechCrunch, 2026-04-06
  3. Sam Altman and Vinod Khosla agree: AI will break the tax code. Here’s their fix — Fortune, 2026-04-07
  4. OpenAI Calls for Robot Tax, Four-Day Workweek, Public Wealth Fund to Address AI-Driven Job Disruptions in 13-Page Policy Blueprint — IBTimes Singapore, 2026-04-07
  5. OpenAI calls for robot taxes, a public wealth fund, and a 4-day workweek to tackle AI disruption — Business Insider, 2026-04-07
  6. Four Day Work Weeks, Public Wealth Fund: OpenAI’s Ideas For Our AI Future — Forbes, 2026-04-08
  7. OpenAI Stargate 三高管同时出走,奥特曼屋漏偏逢连夜雨 — 36氪, 2026-04-07
  8. OpenAI Makes $25 Billion a Year and Is Preparing for an IPO — Humai Blog, 2026
  9. OpenAI Pushes Robot Taxes, Public Wealth Fund Ahead of IPO — WinBuzzer, 2026-04-07
  10. OpenAI提議機器人稅、公共財富基金與四天工作週,以應對AI帶來的經濟衝擊 — creati.ai, 2026-04-07

主题分类:AI政策与治理 / 科技公司战略 / 政治经济学