当Z世代不再「百度一下」:ChatGPT成为操作系统,意味着什么

Sam Altman最近在Sequoia资本的AI Ascent活动上说了一句话,被广泛传播:

“粗略地说,老一代人把ChatGPT当成Google的替代品,20-30岁的人把它当成生活顾问,大学生把它当成操作系统来用。”

这句话之所以令人停下来认真思考,不只是因为它描述了一种有趣的世代差异,而是因为”操作系统”这个比喻,如果是真实的,那么它所指向的,是AI与人类关系的一次根本性重构。

不是工具。不是助手。而是运行一切的底层平台。

三代人,三种AI关系

让我们先停下来仔细看Altman描述的这三种用法,因为它们之间的差异,远比表面上看起来更深刻。

“Google替代品”——搜索与检索的升级

这是AI工具在大众认知中最早、也最容易理解的定位:把它当搜索引擎用,但结果更好。你问”北京最好的火锅店是哪几家”,以前是百度一下,看到10条链接,自己筛选;现在是问ChatGPT,直接得到整理过的推荐。效率提升,认知成本降低。

这种用法,把AI定位成信息处理工具。用户和AI的关系,是查询者和搜索引擎的关系——你问,它答,你离开,它等待。

这种关系是浅层的、事务性的。一次对话结束后,双方没有留下任何积累。

“生活顾问”——关系与情感的叠加

在20-30岁的用户群体中,Altman观察到了一个更深层的用法:不只是查信息,而是咨询建议、讨论选择、甚至处理个人烦恼。”我要不要接受这份工作邀约”、”我和朋友之间最近关系变得奇怪,我应该怎么处理”、”我的健康检查结果有一个指标偏高,这意味着什么”——这些问题,原来通常是找信任的人倾诉,现在开始找ChatGPT。

这种用法,把AI定位成有记忆、有判断力的顾问。用户开始对AI建立某种程度的”关系认知”——它了解你过去的情况,它理解你的处境,它的建议是个性化的而不是泛泛的。

这种关系更深,也更有粘性。用户开始依赖AI提供的连续性上下文,而不是每次从零开始。

“操作系统”——基础设施级别的依赖

在大学生群体中,Altman描述了最令人震惊的用法:他们不只是用ChatGPT,而是在用一种和管理员工或使用操作系统类似的方式来设置和使用它。有精心设计的系统提示,有保存好的复杂任务指令,有和文件系统的连接,有一套完整的”如何调教ChatGPT让它最好地服务我”的个人工作流。

更关键的是:他们”不做任何生活决策而不先问ChatGPT应该怎么做”。

这种用法,把AI定位成了生活底层平台。所有的决策——大到职业规划、小到今天吃什么、复杂到如何回复一封棘手的邮件——都先经过AI的过滤和建议。用户和AI的关系,开始接近一种人机共生的状态。

这三种用法之间的差距,不只是技术上的(都是用ChatGPT),而是认知上的。它们代表了三种不同的”AI在我生命中的位置”的心智模型。

“操作系统”比喻的真正含义

操作系统(OS)的核心特征是什么?它是一切其他软件运行的基础平台。没有OS,你无法运行任何其他应用。OS管理资源分配、协调多任务、提供基础接口。

当一个大学生把ChatGPT当操作系统,这个比喻的含义是:ChatGPT成了其他所有活动的协调层

在他写一篇论文的时候,ChatGPT是组织思路的框架。在他申请实习的时候,ChatGPT是修改简历和模拟面试问题的工具。在他和室友发生冲突的时候,ChatGPT是帮他分析情况和起草回复的助手。在他不知道选什么课的时候,ChatGPT是基于他的兴趣和职业目标给出建议的顾问。

这不是”用了一个很好用的工具”,而是”有了一个随时在线的、拥有完整上下文的、能力全面的协作者,参与了我生活的几乎每个重要决策和任务”。

这种参与程度,和操作系统对软件生态的影响确实有某种类比关系:一旦一个系统成为”底层基础设施”,其他所有活动都开始依赖它。换掉它的成本,会随着时间累积变得越来越高。

这对OpenAI意味着什么

如果Altman的观察是准确的,这对OpenAI的商业逻辑有几个深刻的含义。

含义一:ChatGPT拥有竞争历史上罕见的深度粘性

传统互联网产品的粘性,来自于网络效应(社交网络)、内容积累(视频平台)或习惯养成(各类App)。这些粘性通常是”很难但理论上可以迁移的”——你可以把微信好友拉到另一个平台,虽然很难,但不是不可能。

ChatGPT的粘性,来自于个人知识积累和关系积累。当ChatGPT的记忆功能保存了用户生活中每个重要人物的背景、每个重要决策的来龙去脉、用户在不同情境下的个性化偏好,这种积累是几乎不可能迁移的——它不只是数据,而是一种独特的”数字关系”。

想象一下,你把生活中所有的重要事情都和一个朋友讨论过了,这个朋友记得你说过的每一件事,你现在要换一个新朋友从零开始——光是想象这件事的成本,就足以让大多数人打消念头。

这种粘性,是真正的护城河。不是技术上的护城河(技术可以被复制),而是关系积累上的护城河。

含义二:货币化的路径和规模被重新定义

当ChatGPT是搜索替代品,货币化的逻辑和搜索引擎类似:广告、API、高级订阅。用户规模×单次交互价值。

当ChatGPT是生活操作系统,货币化的逻辑完全不同。用户为了维持”系统功能”愿意支付的费用,远高于为了使用一个工具的费用。你为手机操作系统支付的是整台设备的价格;你为ChatGPT的”生活操作系统”服务支付的,应该是某种形式的持续订阅,而且这种订阅的愿意支付金额,会远高于”偶尔用用的工具”的价格。

这对OpenAI的收入天花板,有根本性的影响。如果大量用户真的把ChatGPT当成生活操作系统,每个用户的月均收入(ARPU)就不该是一个普通工具的订阅价格(当前ChatGPT Plus是20美元/月),而应该接近于其他”生活必需平台”的价值层级。

含义三:平台层面的竞争护城河

历史上,平台层面的竞争格局一旦形成,往往极难撼动。Windows在PC时代、iOS/Android在移动时代,一旦建立起生态系统级别的地位,挑战者需要付出超常规代价才能突破。

如果ChatGPT真的成为”AI时代的操作系统”,OpenAI就不只是一家AI公司,而是一家平台公司。平台公司的估值逻辑、竞争护城河、商业模式,和工具公司有本质区别。

Anthropic的Claude、Google的Gemini、甚至微软的Copilot,在这个框架下,就不只是”更好的AI模型”,而是”试图成为另一个操作系统的挑战者”——而历史一再证明,在平台已经确立的市场里,挑战者的成功率极低。

这对我们理解AI的方式意味着什么

Altman的这个观察,提供了一个理解AI发展阶段的新维度。

在过去几年里,AI行业的主要叙事是关于模型能力的:GPT-4在某个基准测试上超越了GPT-3.5,Claude Opus在某项编码任务上超越了GPT-4,Gemini在某个多模态任务上展示了新的能力。这套叙事框架,把AI理解为一种能力正在进步的工具。

但Altman的观察指向了另一个维度:AI与用户关系的深度

不是”模型有多强”,而是”用户有多依赖它、多信任它、多把它内化为自己决策流程的一部分”。

从这个维度看,AI发展的里程碑,不只是”在某个测试上超越人类”,而是”进入了用户生活的哪个层面、被赋予了什么程度的决策权”。

Google Replace → Life Advisor → Operating System,这三个阶段描述的,是AI逐渐深入人类决策核心的轨迹。而大学生群体——他们是最早、最彻底地在AI陪伴中成长的一代——正在预演这条轨迹的终点状态。

数据说话:OpenAI自己的研究揭示了什么

在讨论这个趋势时,有必要引用一些更具体的数据来支撑Altman的感知性观察。

2025年,OpenAI发布了一份名为”AI-Ready Workforce”的报告,其中包含了一些关于ChatGPT用户行为的统计数据:在18-24岁的美国年轻人中,超过三分之一每周至少使用ChatGPT一次,使用频率远高于其他年龄群体的平均水平。

而在使用场景上,年轻用户群体使用ChatGPT的频率最高的场景包括:学业辅导(论文写作、课程作业)、职业发展(简历修改、面试准备、职业规划建议)、个人决策(健康问题咨询、人际关系建议、财务规划思路)。

从「学业辅导」到「个人决策」,这个排序本身就说明了问题:对年轻用户来说,ChatGPT不只是学习工具,更是生活顾问。

有一个细节值得关注:ChatGPT的记忆功能,对于这种”操作系统”用法是关键的技术基础

Altman提到,年轻用户因为ChatGPT记住了”他们生命中每个人的情况以及他们谈论过的事情”,所以能够提供连续性的、个性化的建议。这与搜索引擎的无记忆本质形成了根本对比——Google不记得你,每次搜索都是一次独立的事务。而ChatGPT(开启记忆功能后)记得你,积累了关于你的一个持续成长的知识库。

这个记忆功能,是AI从”工具”向”关系”跨越的技术基础。它让每次对话都不只是孤立的信息交换,而是一段持续关系中的一次对话。

年轻一代的AI使用习惯将如何塑造下一个10年

理解这个趋势的另一个维度,是它的代际传导效应。

今天的大学生,是在AI工具已经全面普及之后进入高等教育的第一代人。他们不是”学会使用AI工具”的人,而是”从来不知道没有AI工具是什么感觉”的人。这种根本性的代际差异,意味着未来10-15年,当这批用户进入职场并成为主要决策群体时,他们对AI工具的使用方式和依赖程度,将深刻重塑工作流程和商业环境。

对企业来说,这意味着:

员工的工作方式将系统性地改变。当大量新入职的员工已经习惯了把AI当操作系统,企业的内部流程设计、工具选择、知识管理方式,都需要适应这种新的工作模式。那些拒绝或者滞后引入AI工具的企业,会在人才吸引和保留上遇到麻烦——因为对年轻人才来说,”没有AI工具的工作环境”会让他们感到效率受损,就像一个没有互联网连接的办公室一样难以接受。

客户期望将被重新定义。当消费者习惯了向AI描述自己的需求并得到个性化的解决方案,他们对传统企业提供的标准化产品和服务的容忍度会持续降低。”给我推荐几个选项”会变成”根据我的具体情况给我唯一的最优解”。这对零售、金融、医疗、教育等消费者业务都有深远影响。

决策流程将被加速。当个体决策都在AI辅助下变得更快、更有据,在组织中大量AI辅助决策工具的应用,会推动企业整体决策速度的加快。那些还在依赖漫长的人工信息汇总和分析流程的组织,竞争优势将被持续侵蚀。

“AI是操作系统”这个比喻的局限性

诚实地说,Altman的”操作系统”比喻也有其局限性,值得一提。

操作系统的核心特征之一是:它是用户主动选择并在设备上安装的基础层,它不对用户的决策内容进行判断,只是提供能力接口。Windows不会在你打游戏时说”你已经打了3个小时了,休息一下吧”;iOS不会在你发一条你可能后悔的短信前给你一个确认对话框(除了一些功能之外)。

但ChatGPT显然是有观点的、有立场的、甚至有时候有偏见的。当它成为生活决策的”操作系统”,它不只是提供中立的执行环境,而是在用自己的知识库、训练数据和模型偏好来影响用户的决策方向。

这更接近”有观点的顾问”而不是”中立的平台”。从这个角度说,”操作系统”这个比喻可能低估了ChatGPT在影响决策内容上的主动性,以及这种主动性所带来的责任问题。

这不是否定Altman观察的洞察价值,而是说,当我们用”操作系统”来描述AI在生活中的角色时,我们也需要同时思考:这个”操作系统”并不中立,它的偏见和价值观,会通过数以亿计的日常决策,悄悄地在人类社会中产生累积性影响。

这是AI时代最值得认真对待的问题之一。

反向的担忧:依赖的代价

当然,任何诚实的分析都不能回避这个趋势的潜在风险。

决策自主性的侵蚀:当一个人”不做任何生活决策而不先问ChatGPT”,他的决策能力是在增强(有了更好的信息和分析)还是在弱化(失去了独立判断的能力)?这是一个没有定论的问题,但它值得认真面对。教育研究者和心理学家正在开始系统性地研究这个问题,当前的证据是混合的——AI辅助决策在某些类型的任务上确实提高了决策质量,但在需要从经验中学习的场景中,过度依赖AI可能会阻碍个人判断力的发展。

单一信息源的风险:当大量人的生活决策都流经同一个系统(ChatGPT),这个系统的偏见、错误和失效,会对大量人的决策同步产生影响。这不只是个体风险,而是一种系统性风险——高度集中的”意见基础设施”在遭遇模型幻觉、偏见或被恶意操控时,后果可能远比分散的信息来源更严重。

商业利益与用户利益的潜在冲突:作为一家盈利性商业公司,OpenAI有动机让ChatGPT更多地被使用、被依赖。但用户的最大利益,并不总是和”尽可能多地使用AI”对齐。这种潜在的利益冲突,在AI深度嵌入生活决策后,会变得更值得审视。

AI与人类关系的商业哲学:谁应该拥有这段关系?

如果ChatGPT真的成为数以亿计的人生活中的”操作系统级”存在,那么一个不可回避的哲学问题就浮出水面:这段关系应该属于谁?

在现实世界中,你的朋友、家人、心理咨询师——所有这些承担”生活顾问”角色的人——都是独立的、不可被买卖的、对你负有真实道德责任的个体。他们与你的关系,本质上是对等的人与人之间的关系。

但ChatGPT是一个商业系统。它由一家私人公司运营,它的模型会不断迭代,它的服务可以随时变更政策或涨价,它存储的关于你的记忆可以因为公司政策改变而消失,它的偏见可能因为商业考虑而被悄悄调整。

当你把自己最重要的生活决策都流经一个商业系统,你就在某种程度上把自己的决策自主性让渡给了一个有自身利益的商业实体。这与让渡给一个真实的、负有责任的人之间,存在本质的区别。

这不是说ChatGPT会恶意影响你的决策。大多数情况下,OpenAI的目标确实是提供有价值的服务。但”没有恶意”和”利益完全对齐”之间,有一道不可忽视的距离。

OpenAI是一家商业公司,它的利益是让用户更多地使用ChatGPT。这和用户的利益——在需要时使用AI,不需要时保持自主判断——并不是在所有情况下都完全一致。

面对这个问题,最理性的态度也许是:把AI当成真正有价值的工具和辅助系统,同时有意识地保留自己在重要决策上的最终判断权,而不是把判断权系统性地外包给任何一个商业实体——无论它有多聪明。

结语:一个可能是真实的未来,以及我们需要的准备

Altman的观察,描述的不只是一个有趣的代际差异。它预示着一种可能的未来:AI不只是我们使用的工具,而是我们赖以做决定的底层系统。

这个未来不必然是好的,也不必然是坏的。它是一面镜子,照出的是人类和技术之间关系的根本性转变。

对个人来说,值得思考的问题是:在这个AI越来越像操作系统的世界里,我如何保持自己的判断力和自主性,同时利用AI带来的真实效率提升?

对社会来说,值得思考的问题是:当一代人的决策能力和一个商业系统深度绑定,我们需要什么样的教育体系、监管框架和技术设计原则,来保障这种依赖不会演变成一种脆弱性?

对AI开发者来说,值得思考的问题是:如何设计一个”帮助人做更好决定”的系统,而不是”替代人做决定”的系统?这两者之间的边界,比技术层面看起来要模糊得多。

这些问题,目前没有现成的答案。但它们是值得提问的。


参考资料:

  1. Fortune: Sam Altman — Gen Z uses ChatGPT as an ‘operating system’ and won’t make life decisions without it (2026-05-10) — https://fortune.com/article/sam-altman-chatgpt-gen-z-millennials-life-advisor-operating-system/
  2. Sequoia Capital: AI Ascent event (2025年5月,原始发言场合)
  3. OpenAI: AI-ready workforce report (2025) — https://cdn.openai.com/global-affairs/openai-edu-ai-ready-workforce.pdf
  4. Vice: Relationship advice and ChatGPT — https://www.vice.com/en/article/my-girlfriend-wont-stop-using-chatgpt-for-relationship-advice/
  5. NPR: AI as talk therapy replacement (2025-04-07) — https://www.npr.org/sections/shots-health-news/2025/04/07/nx-s1-5351312/artificial-intelligence-mental-health-therapy

从中国视角看这个趋势

这个现象并不只发生在美国。在中国,有类似的趋势在以不同的速度和形态展开。

豆包、文心一言、智谱清言——这些面向中国用户的AI助手,在年轻用户中的渗透率正在快速增长。根据第三方数据机构的追踪,豆包(字节跳动旗下)在2025年底已经拥有超过5000万月活跃用户,其中大量是在校学生和年轻职场人。

中国年轻用户使用AI助手的模式,和Altman描述的美国情况有一些相似之处,但也有独特之处:

相似的地方:学业辅助(尤其是英语学习、编程学习、论文写作)和职业发展(简历优化、面试准备)是最高频的使用场景,这和美国年轻用户的情况高度相似。

不同的地方:中国的监管环境对AI生成内容有更严格的要求,这在一定程度上限制了AI在某些”价值观敏感”领域(如政治评论、部分社会话题)的使用深度。此外,中国的AI生态相对封闭,主要使用国内厂商的产品,而不是ChatGPT(在中国无法直接访问)。

这种分化,带来了一个有趣的地缘AI格局:同样是”把AI当生活顾问”的趋势,在不同的地区、使用不同的系统,体验到的是不同的价值观过滤和内容边界。这意味着未来的”AI生活顾问”不会是全球统一的一个实体,而是会形成若干具有不同价值观取向的”顾问系统”——就像现在互联网已经分裂成不同的信息圈一样。

对于深入理解这个趋势的人来说,这个地缘分化是一个值得持续追踪的维度。

下一个5年:我们会记得”没有AI之前”吗?

最后,有一个更宏大的问题值得思考:当一代人完全在AI陪伴下成长,他们还会记得”自己做决定是什么感觉”吗?

这个问题听起来很极端,但并不是危言耸听。

历史上有类似的先例:许多生活在GPS普及之后的年轻人,已经失去了用地图定向的能力,因为他们从来不需要它。这不是一种失败,而是一种合理的认知资源重新分配——既然有GPS,为什么要花大量神经资源去训练空间导航能力?

用同样的逻辑,当有了ChatGPT这样强大的决策顾问,未来的人是否还会花大量精力去培养独立分析、独立判断的能力?如果不会,这意味着什么?

这是教育学者、认知科学家、AI伦理学家正在认真研究的问题。目前没有定论,但有一些早期的研究信号:使用AI辅助学习的学生,在某些类型的技能(如快速查询和整合信息)上表现更好,但在需要从头构建推理链的任务上,某些研究发现了潜在的能力退化风险。

这些研究还在早期,不足以得出确定性结论。但它们提示了一个值得认真面对的权衡:AI让我们在很多任务上更有效率,但效率提升可能是以某些能力的逐渐退化为代价的

认识到这个权衡,不是为了抗拒AI,而是为了在使用AI的同时,有意识地保留和锻炼那些真正不应该让AI替代的能力——批判性思维、情感判断、创造性洞察、道德推理。

这些,无论AI变得多强大,都是值得坚守的人类核心能力。

在这场关于AI与人类关系的大叙事中,最值得珍视的,也许不是任何一种工具本身,而是我们在面对工具时保持的那种清醒:知道它能做什么,知道它不应该做什么,知道什么时候应该放下屏幕,用自己的眼睛和心去感受世界。

这种清醒,在任何一个技术革命的时代,都是人类最重要的核心竞争力。 毕竟,在一个AI越来越聪明的世界里,人类最终的差异化,在于我们独特的意志与选择的能力——那些无法被训练、无法被压缩成参数的东西。