Cerebras的上市密码:当AI芯片独角兽把OpenAI的$200亿算力合同变成IPO武器
2026年4月17日,AI芯片公司Cerebras Systems再次向美国证券交易委员会提交S-1文件,申请在Nasdaq挂牌,股票代码CBRS。这是Cerebras第二次冲击上市——2024年那次申请,在距离敲钟只有几步之遥时,因国家安全审查悄然撤回。两年之后,他们带着完全不同的底牌回来了。
财务数字让人眼前一亮:2025年营收$5.1亿,同比增长76%;净利润$8790万,而2024年净亏损高达$4.85亿。一年之内从深度亏损到真实盈利,这条财务曲线足以让任何IPO承销商心跳加速。Morgan Stanley、Citigroup、Barclays已经排好了承销队伍。更令人瞩目的是$246亿的剩余履约义务——这个数字相当于Cerebras当前年化营收的约48倍,意味着未来数年的收入已经基本锁定。
但真正让这份S-1文件与众不同的,不是那些让人眼花缭乱的财务数字——而是埋在合同条款里的一个名字:OpenAI。
一笔改变Cerebras命运的三重绑定
在S-1的关键披露条款中,有这样几行字值得反复咀嚼:OpenAI已向Cerebras贷款$10亿,并获得了Cerebras的股权认购权证。双方签署的算力供应协议总额超过$200亿,执行期为2026年至2028年,每年提供250MW的算力供给。
这不是一份普通的客户合同。这是一种前所未有的三重绑定结构:OpenAI同时是Cerebras的最大客户、最大债权人和潜在股东。
当你试图用传统的供应商-客户框架去理解这种关系时,你会发现这个框架完全失效了。让我们把这个结构逐层拆解:
第一层:债权人关系。OpenAI借给Cerebras$10亿。这笔钱的用途非常具体——帮助Cerebras建设完成$200亿订单所需要的算力基础设施,包括数据中心、液冷系统、配套电力设施和专业技术团队。在这个层面上,OpenAI是Cerebras的重要资本来源之一,Cerebras对OpenAI负有债务责任。
第二层:客户关系。Cerebras用OpenAI融资支持下建设的基础设施,为OpenAI提供算力服务,按约定收取服务费。双方合同总额$200亿跨越三年执行,平均每年OpenAI向Cerebras支付约$66亿的算力费用。Cerebras用这笔收入偿还贷款、维持运营、积累资本用于进一步扩张。
第三层:股权关系。OpenAI持有Cerebras的股权认购权证,意味着一旦Cerebras成功上市,OpenAI有权以预定价格买入股份,成为Cerebras的持股股东。Cerebras的市值越高,这笔权证的价值越大,OpenAI从中获得的资本增值也越多。
把三层关系放在一起,你会看到一幅令人称奇的图景:OpenAI把自己的算力依赖关系货币化了。它不是简单地买算力,而是先借钱给供应商建设产能,再用长期合同的形式锁定未来三年的算力价格和供应量,同时通过股权认购权证分享供应商未来的资本市场溢价。这是一种把”确定性算力需求”转化为”资本市场工具”的精妙金融操作。
AI芯片赛道的生存规则:技术只是入场券,关系才是护城河
在AI芯片这个赛道,Nvidia的统治地位已经被讨论得千疮百孔。英特尔尝试过,AMD尝试过,Google有TPU,Amazon有Trainium和Inferentia,Meta在研发MTIA,苹果更是把自研芯片做成了整个消费科技行业的标杆。几乎每一家大型科技公司都在Nvidia的价格焦虑和供货压力下做出了”内部替代”的战略选择,但Nvidia的护城河不仅没有被攻破,反而在过去两年里越挖越深。
在初创公司层面,押注”Nvidia杀手”的投资者也从来不缺乏热情。2026年全球AI芯片初创公司融资已经达到$83亿:荷兰Euclyd由前ASML高管创立,声称推理能效比Nvidia Vera Rubin高100倍;英国Fractile与Accel洽谈$2亿融资,估值直指$10亿;美国Cerebras本身在私募市场就获得了来自OpenAI的$10亿贷款支持。这句”比Nvidia快100倍”,在这个行业里听起来已经像是一句咒语——每隔几年就会有一家公司声称找到了Nvidia的致命软肋,然后在高调宣传之后,一边烧钱一边慢慢消失在历史的注脚里。
Cerebras的路径与这些公司有一个根本性的不同。它没有正面进攻训练芯片市场——那是Nvidia最坚不可摧的城池,CUDA生态积累了超过20年的开发者资产,台积电最先进制程产能的优先供货协议,以及几乎无法用金钱复制的开发者心智。Cerebras把战场选在了推理市场。
推理,是指将已经训练好的AI模型部署到实际应用中、对真实用户请求做出响应的计算过程。和训练相比,推理对请求延迟极度敏感,对并发处理效率要求更高,对原始算力绝对量的要求相对低一些。更关键的是,随着越来越多的企业把AI模型部署到生产环境,推理成本正在成为AI应用最大的变动成本——并且这个压力随着用户量的增长在快速放大。
OpenAI的推理成本是一个众所周知的天量数字:处理每一次GPT-4级别的对话,成本是GPT-3.5的数倍,而ChatGPT的日活用户已经超过1亿。这意味着OpenAI每年在推理上要烧掉数十亿美元。在这个背景下,任何能以同等质量降低推理延迟和成本的技术方案,都对OpenAI具有重大战略价值。
Cerebras的技术核心是晶圆级芯片(Wafer-Scale Engine,WSE):整块硅晶圆就是一块芯片,最新一代WSE-3拥有4万亿个晶体管,尺寸是Nvidia H100的57倍,内存带宽则是H100的数倍。这种设计从根本上消除了数据在多芯片之间传输所需的高延迟互联,在需要大型语言模型快速响应的推理场景下,速度优势非常显著。在特定推理基准测试中,Cerebras声称比Nvidia快10到20倍,且功耗没有成比例地增加。
但是,10倍速度可以被追赶,可以被新一代产品碾压,也可以被Nvidia的软件优化部分抵消。技术领先期在AI芯片这个领域通常只有18个月到36个月,因为Nvidia、AMD、英特尔都在以极高频率推出新产品。在这个节奏下,任何单点技术优势的持续时间都是有限的。
这就是为什么OpenAI的$200亿合同远比Cerebras的晶圆级芯片更重要:它为Cerebras的技术优势买来了时间窗口。足够的时间积累客户案例,建立软件生态,扩大规模降低成本,最终形成”不只依赖技术性能”的综合性护城河。
两次IPO之间,一家公司如何完成脱胎换骨
2024年那次撤回申请,官方理由是”国家安全审查”。但背后的真实原因更为复杂:Cerebras当时的主要投资方之一是阿联酋政府基金G42,这个与中国科技生态有深度合作的中东资本让美国商务部感到极度不安。在那个中美科技脱钩加速的时代背景下,一家宣称要挑战Nvidia、与中东政府资本深度绑定的AI芯片公司申请在美国证券市场上市,政治风险高度集中。传说监管部门发出的”建议撤回”信号足以让承销商寒心,Cerebras选择了主动退出。
2024年底,G42出售了大部分Cerebras持股,并与美国政府签署了一系列合规协议,公开宣誓切断与中国科技实体的关联。这个”去G42化”的过程历时数月,代价不菲——G42作为投资方虽然退出,但Cerebras也失去了一个重要的中东算力市场客户来源。这个代价是Cerebras为第二次IPO所做的最重要的政治清场工作。
然后是财务转型。从亏损$4.85亿到盈利$8790万,一年之内完成如此大幅度的财务改善,背后的机制是什么?答案非常直接:OpenAI的$200亿算力合同开始大规模执行,收入端的规模效应远远超过了成本端的增长速度。这个财务转型不完全是Cerebras内部运营效率提升的结果——更大程度上是外部关系资本的货币化。
这个事实本身是一把双刃剑。它证明了Cerebras的商业模式是可以盈利的,验证了晶圆级芯片方案在大规模推理场景下的实际交付能力;但同时也意味着,Cerebras当前的盈利能力与OpenAI的算力需求高度相关。如果OpenAI在未来收缩对Cerebras的依赖,Cerebras的财务曲线将面临巨大压力。
时机选择也相当精准。2026年AI推理市场正处于结构性爆发的关键节点:各大云厂商开始将推理算力集群与训练算力集群分离运营;AI应用从”实验性部署”走向”生产级大规模部署”,推理请求量呈指数级增长;OpenAI、Anthropic、Google等头部模型公司每月处理的推理请求数已经达到数万亿次级别。在这个时机,”专注推理”的Cerebras比2024年更有说服力,市场窗口更加清晰可见。
“客户即股东即债权人”——AI产业资本结构的新物种
让我们从更高的视角审视OpenAI-Cerebras这种关系,它在AI产业史上代表着什么样的结构创新。
历史上,大型科技公司与核心芯片供应商的关系通常遵循几种成熟的模式:
内部自研模式:Apple自研M系列芯片,Google自研TPU,Amazon自研Trainium和Inferentia,Meta持续研发MTIA。这是最彻底的垂直整合,能够完全控制技术路线和长期成本结构,但需要数十亿美元的前期研发投入和数年的时间积累,通常只有规模体量超过临界值的科技巨头才有资本和耐心去做。OpenAI虽然估值已达数千亿美元,但其算力需求增长速度远超其自建算力的能力,内部自研短期内难以解决全部推理算力需求。
标准供应商模式:通过市场化采购获取芯片,优点是采购灵活,可以随时根据技术和价格调整供应商,缺点是在供不应求时毫无优先保障,价格随市场波动。2023年的Nvidia H100严重缺货危机,让众多AI公司切身体会到纯粹依赖市场供货的脆弱性。
战略投资模式:微软向OpenAI投入数百亿美元获得优先使用权和算力承诺,英伟达向众多AI初创公司注资换取合作深度和优先供货,谷歌战略投资Anthropic。这种模式提供了资本和关系的双重绑定,但通常不涉及深度的运营控制和具体的算力价格锁定。
OpenAI-Cerebras的模式是第四种,可以称之为“算力绑定资本化”:通过贷款+认购权证+超长期供应合同三重工具,把”算力依赖关系”转化为”共同利益绑定”。这种结构为双方同时创造了独特的战略价值:
对OpenAI而言,它用一笔$10亿贷款(相对于其数百亿美元级别的算力年支出而言并不算大)撬动了$200亿的算力价格确定性。不必提前支出巨额资本建设自己的算力基础设施,不必承担技术路线选择的风险,却能锁定一个对自己算力需求高度定制优化的专属供应商。同时,通过股权认购权证,一旦Cerebras上市成功,这笔贷款的潜在资本增值甚至可以部分抵消算力成本。
对Cerebras而言,它用$200亿算力服务承诺换来了$10亿的基础设施启动资金、一份IPO时机极佳的核心叙事素材,以及三年内收入基本有保障的安全垫。更重要的是,这份合同让Cerebras从一家”有技术但缺大客户”的高风险初创公司,变成了一家”有经过大规模验证的交付能力”的成熟企业服务提供商。这对IPO估值的影响是根本性的。
这种三重绑定结构,在历史上有一个经典的先例——只是出现在完全不同的行业里。
在传统能源领域,天然气管道公司与大型工业客户之间,经常存在类似的”资本绑定”结构:管道公司向工业客户的母公司借款建设管道基础设施,工业客户签署15年至20年的长期采购合同,管道公司用合同收入偿还贷款并实现盈利,工业客户获得了稳定价格的能源供应。这种结构在能源基础设施领域被称为”take-or-pay合同”(承购合同),是大型基础设施项目融资的标准工具,全球数千亿美元的天然气管道项目都是通过这种结构完成融资的。
当AI算力投资规模达到与能源基础设施相当的量级(数百亿甚至数千亿美元),AI行业自然地开始借鉴能源行业几十年来发展出的这些金融工具。Cerebras-OpenAI合同,是AI算力产业第一次真正意义上的”能源级别算力绑定”——不是市场交易,而是基础设施级别的长期承诺。
这次IPO真正的风险矩阵
理解了上述结构,我们就能更准确地识别Cerebras这次IPO真正的风险集中点——它们不主要在技术,也不主要在市场竞争,而在于关系资本化结构的内在脆弱性。
风险一:客户集中度与收入质量。$246亿的剩余履约义务中,OpenAI占多大比例?如果超过70%,那么Cerebras的营收稳定性与OpenAI的商业成功高度耦合。机构投资者在评估这家公司时,实际上要同时评估两家公司的风险——Cerebras本身,以及OpenAI作为其核心客户的可靠性。这种双重风险叠加,会在估值上给予一定的折扣。
风险二:OpenAI自身的财务可持续性。OpenAI的2025年运营成本据估计超过$100亿,其中大部分是算力成本。即使有Microsoft大规模资本支持和Altman不断强调的”通往盈利的路径”,OpenAI自身的财务压力是市场公开的事实。$200亿的Cerebras合同意味着OpenAI未来三年内每年要锁定约$66亿的算力支出。如果OpenAI的商业化速度在2027年遇到瓶颈,这笔合同的履行能力将面临考验。
风险三:技术替代与Nvidia反击。Cerebras的推理速度优势是当下的事实,但这个优势能维持多长时间?Nvidia的Blackwell和下一代Rubin架构在推理效率上都有针对性的改进。更重要的是,英特尔、AMD和各大云厂商自研芯片都在向推理场景优化。如果在2027年至2028年合同到期前,出现性能相当但成本更低的推理芯片选项,OpenAI在合同续签时的谈判立场将发生根本性变化。
风险四:制造经济性的天花板。晶圆级芯片的最大制造挑战是良率问题。一张标准的300mm硅晶圆,用于生产Cerebras WSE这种整片晶圆芯片时,任何一个区域的制造缺陷都可能导致整张晶圆无法使用。这意味着Cerebras在制造成本上有一个难以通过规模效应完全克服的结构性劣势——Nvidia可以把一张300mm晶圆切割成数百块独立的GPU芯片(H100每片约50-80mm²),单片缺陷的损失分摊极低,行业数据显示顶级GPU晶片良率通常在90%以上;而Cerebras的WSE整张晶圆就是一块芯片(约46,225mm²),任何区域的晶格缺陷都可能影响整片功能,WSE的实际良率数据虽然Cerebras未公开,但外部分析师普遍认为整片晶圆芯片的良率挑战远大于切割式芯片,制造成本结构上的劣势是客观存在的。
对AI基础设施投资逻辑的重构
Cerebras的案例,实质上在提议一种理解AI芯片初创公司的全新框架。
过去的主流分析框架是:技术性能优势→早期客户验证→规模扩张→护城河形成→上市融资。这是一个以技术为起点的线性叙事,要求公司在没有规模的情况下依靠技术领先性赢得初期客户,然后滚雪球式地建立规模护城河。
Cerebras提供的是一个完全不同的路径:关键客户绑定(合同+贷款+权证)→稳定现金流与真实盈利→IPO融资→利用募集资本多元化客户基础→最终独立于单一关键客户。
在这个框架里,技术优势是必要的起点,但核心驱动力是”关系资本化能力”——能否找到一个足够大、足够有资本实力,同时在算力需求上”买不起自建但必须保障供给”的战略客户,将这种依赖关系设计成一种共生性的资本结构。
这种模式的稀缺性在于:它要求供应商的技术在大客户部署规模下被充分验证(不是测试阶段的小规模验证,而是生产级别的大规模稳定交付),要求大客户的需求规模足够大到值得设计这种复杂的金融结构($200亿门槛不是随便一个客户都能提供的),还要求双方之间有足够深的信任和利益对齐(否则任何一方都不会愿意接受这种深度锁定)。
OpenAI-Cerebras能够形成这种结构,有一个至关重要的背景因素:OpenAI在推理算力上面临的成本压力是其商业模式的最大威胁之一,它需要在主力云厂商的标准价格体系之外,建立一个技术差异化、成本可控的算力来源作为结构性对冲。Cerebras恰好在推理延迟上提供了有意义的差异化,同时规模处于”足够大以承接大单,但尚未大到被视为战略竞争对手”的甜蜜区间。
从更宏观的产业视角看,这种三重绑定结构代表着AI产业进入了一个新的成熟阶段。当算力需求的规模达到能源级别,相关的金融工具也开始向能源行业靠拢。这不是比喻,而是经济逻辑的必然推导:规模决定工具,投资规模到了能源量级,自然会发展出能源行业的投融资工具。
Cerebras的IPO,是AI算力产业成熟的一个里程碑式信号。
2028年,合同到期。届时,这家公司是否已经真正独立地站稳脚跟,将告诉我们今天购买这个故事的投资者,究竟是看到了AI基础设施产业的历史性机遇,还是只是买入了一份优质的”OpenAI基础设施代理”。
投资者和从业者的观察清单
对于不同角色的读者,Cerebras这次IPO提供了不同的行动线索:
对AI从业者(CTO/算力采购负责人):Cerebras的三重绑定模式提供了一个可以借鉴的谈判框架。如果你的公司有稳定的、规模足够大的AI推理需求,向算力供应商提出长期合同+贷款支持+股权认购权证的组合,可能是获得更优算力价格的有效路径——当然,这要求你的公司有足够的信用和谈判筹码。
对AI基础设施投资者:评估AI芯片初创公司时,最重要的问题不是他们的芯片比Nvidia快多少,而是他们有没有一个足够大的关键客户,愿意把自己的需求转化为资本工具来支持供应商。有这样客户的初创公司,与没有这样客户的初创公司,风险收益比截然不同。
对AI政策制定者:Cerebras IPO中的OpenAI-Cerebras绑定关系,预示着AI基础设施领域将出现大量复杂的垂直整合结构,这些结构可能使市场集中度以不那么显眼的方式提高——不是通过并购,而是通过合同和资本绑定。未来的AI反垄断分析需要把这类合同结构纳入评估范围。
参考资料
- CNBC: “Cerebras Systems files to go public again with AI chip IPO” (2026-04-17) — https://www.cnbc.com/2026/04/17/cerebras-new-ipo-ai-chips.html
- CNBC: “Nvidia AI chip rivals funding — Euclyd, Fractile and others raise record $8.3 billion” (2026-04-17) — https://www.cnbc.com/2026/04/17/nvidia-ai-chip-rivals-funding-euclyd-fractile.html
- Reuters / CNBC: “TSMC Q1 2026 earnings — AI chip demand at record levels” (2026-04-17) — https://finance.yahoo.com/sectors/technology/articles/ai-demand-drives-chipmaker-tsmcs-063638491.html
- AWS Blog: “Amazon Bedrock Claude Mythos Preview” (2026-04-07) — https://aws.amazon.com/blogs/machine-learning/amazon-bedrock-claude-mythos-preview/