提问能力是新代码:Jack Clark的文学学位与AI时代人才评估的范式断裂
2026年4月,一位拥有英语文学学位的亿万富翁在接受Fortune采访时说出了一句足以让无数计算机专业学生不安的话:”knowing how to ask the right questions beats knowing how to code。”(来源:Fortune, 2026-04-14)
说这话的人是Jack Clark——Anthropic联合创始人,Claude系列模型背后的核心缔造者之一。他不是在做励志演讲,也不是在为自己的非传统背景辩护。他是在描述一个他亲身参与构建的现实:当AI系统已经能够以工业化速度生成可运行代码,”会写代码”这张曾经的入场券正在以肉眼可见的速度贬值。
这个观点的颠覆性不在于它的新鲜感,而在于说出它的人的身份。Clark不是一个被AI浪潮冲击而被迫转型的文科生,他是那个构建浪潮本身的人。这种身份赋予了这句话一种特殊的证明力:如果连AI系统的设计者都认为人文素养比编程能力更具战略价值,那么这场关于人才评估标准的对话,已经不再是哲学讨论,而是产业信号。
本文试图做的,不是重复Clark的观点,而是解构它背后的结构性逻辑——为什么”提问能力”正在从软技能升级为硬通货,这场转变的数据基础是什么,它对组织招聘和高等教育意味着什么,以及大多数人在讨论这个话题时忽略了什么。
第一章:文学青年造AI——一条非典型路径的结构性意义
Jack Clark的履历在AI行业里是一个异类。他没有斯坦福计算机科学博士学位,没有在Google Brain或DeepMind做过基础研究,他的起点是英语文学。这个事实本身并不稀奇——科技行业里跨界成功的故事从不稀缺。真正值得分析的,是Clark本人对这段经历的解读方式,以及这种解读在2026年的语境下所具有的产业意义。
根据Business Insider和Times of India的报道,Clark在谈及大学专业选择时明确表示,那些看似与AI时代”不匹配”的学位,现在实际上相当有价值。(来源:Business Insider, 2026-04;Times of India, 2026-04)他的论据不是情感性的,而是功能性的:英语文学训练的核心能力——精确理解语言的歧义、在复杂语境中提炼核心问题、对叙事结构进行批判性分析——恰恰是与大型语言模型进行高质量交互所需要的基础能力。
这里有一个被大多数报道忽略的深层逻辑:大型语言模型本质上是一个语言界面,而不是一个数学界面。与LLM的交互质量,在技术层面取决于prompt的语义精确度、上下文结构的合理性和问题定义的清晰度——这些恰恰是文学训练的核心输出,而不是算法训练的核心输出。
换句话说,Clark的文学背景不是他成功的”尽管如此”,而是他成功的”正是因为”。这个区别至关重要。
Economic Times的报道进一步引用Clark的观点指出,人文学科培养的能力帮助他参与构建了AI系统本身。(来源:Economic Times, 2026-04)这句话的含义比表面看起来更深:AI系统的设计不仅仅是一个工程问题,它同时是一个关于如何定义”有用性”、如何处理歧义、如何在不确定性中做出判断的语言和认知问题。这些问题的答案,在计算机科学的课程体系里几乎找不到,但在哲学、文学、历史和语言学的训练中俯拾皆是。
Clark在接受多个媒体采访时的建议具有一定的一致性:他鼓励大学生重新审视专业选择,不要因为AI热潮而盲目涌向计算机科学,而是要考虑那些培养批判性思维和提问能力的学科。(来源:Business Insider, 2026-04;sg.style.yahoo.com, 2026-04)这个建议在当前Gen Z失业率高企的背景下(来源:Fortune, 2026-04-14),具有相当的反直觉性——但也正是这种反直觉性,使它值得被认真对待。
需要指出的是,Clark的个人经历是一个N=1的案例,不能直接推广为普遍规律。但他的身份使这个案例具有了超出个人叙事的产业信号价值:一个亲手构建了顶级AI系统的人,在回顾自己的认知工具箱时,把人文训练排在了技术训练之前。这不是偶然的谦逊,而是对AI时代人机协作模式的一种深刻理解。
第二章:数据佐证——Anthropic经济指数揭示的技能价值重构
个人叙事是引子,数据才是论据。Anthropic在2026年3月发布的经济指数报告(Anthropic Economic Index)提供了迄今为止最接近第一手证据的数据集,用于分析AI对不同类型工作任务的实际影响模式。(来源:Anthropic, 2026-03)
这份报告的方法论值得关注:它基于真实的Claude使用数据,分析用户实际将AI用于哪些任务、哪些职业类型的工作受到的影响最显著,以及人机协作在实际工作流中的形态。这使它区别于那些基于假设性场景的预测报告,具有更强的实证价值。
报告揭示的核心发现指向一个关键分化:AI对高度结构化、规则明确的任务(包括标准化编程、数据处理、格式转换等)的替代效率远高于对需要复杂判断、语境理解和创造性问题定义的任务。(来源:Anthropic, 2026-03)这个发现在技术层面并不令人意外——LLM在处理有明确模式的任务时表现出色,在处理需要深度语境理解和价值判断的任务时仍然存在显著局限。
但这个发现的商业含义被大多数讨论所忽视:它意味着”编码能力”作为一种技能的市场价值正在经历结构性重估,不是因为编程变得不重要,而是因为编程的”执行层”已经被AI大幅压缩,留下来的是更高阶的”定义层”——即决定写什么代码、为什么写这段代码、这段代码要解决什么本质问题。
这里存在一个技能层级的根本性重组:
传统技能层级(AI之前):
- 顶层:系统架构设计、技术战略判断
- 中层:算法实现、代码优化、调试
- 底层:语法执行、格式转换、标准化任务
AI时代技能层级(2026年):
- 顶层:问题定义能力、AI输出的质量判断、跨领域整合
- 中层:AI协作优化、prompt工程、输出验证
- 底层:被AI大幅自动化的执行层任务
在传统层级中,中层技能(代码实现)是就业市场最大的需求区间,也是计算机教育的核心输出。在AI时代层级中,这个区间正在被压缩,而顶层——问题定义和质量判断——正在成为最稀缺的能力维度。
Anthropic经济指数报告的另一个关键发现是关于”人机协作”中人类独特贡献的模式。(来源:Anthropic, 2026-03)在高效的人机协作中,人类的核心价值不在于执行,而在于:定义任务边界、评估输出质量、识别AI盲点、将技术输出转化为商业决策。这些能力的共同底层,是对语境的深度理解和对问题本质的精确把握——这是人文训练的核心输出,而不是技术训练的核心输出。
需要补充一个重要的反驳视角:也有研究者指出,AI时代对技术能力的需求并未消失,而是在向更高层次迁移——理解AI系统的架构局限、能够对AI输出进行技术层面的验证、具备足够的数学基础来识别模型的系统性偏差。这些能力仍然需要扎实的技术训练,不能被人文素养所替代。
这个反驳是有效的,但它并不推翻Clark的核心论点。它揭示的是一个更复杂的现实:AI时代最稀缺的人才,不是纯粹的技术人才,也不是纯粹的人文人才,而是能够将两者整合的”T型”或”π型”人才——其中横向的广度来自人文素养,纵向的深度可以是技术,也可以是其他专业领域。Clark的观点的真正价值,不是在说”文科比理科好”,而是在说”提问能力是所有专业的元技能,而文科训练对这种元技能的培养被系统性低估了”。
第三章:AI技能鸿沟已成现实——超级用户的解剖
如果说Anthropic经济指数提供的是宏观层面的任务影响分析,那么TechCrunch在2026年3月报道的AI技能差距研究,则提供了更接近个体层面的分化证据。
根据TechCrunch的报道,AI技能差距已经成为现实,AI power users(超级用户)正在与普通用户拉开显著差距。(来源:TechCrunch, 2026-03-25)这个发现本身不令人意外,但其背后的机制值得深入解剖:是什么使一个AI用户成为”超级用户”?
表面答案是”更频繁地使用AI”或”掌握更多AI工具”。但这个答案是错误的,或者至少是不完整的。使用频率和工具数量是超级用户的结果,不是原因。真正的差异在于使用模式的质量,而使用模式的质量取决于一个根本性的能力:能否向AI提出高质量的问题。
这里有一个被广泛忽视的技术事实:LLM的输出质量与输入质量之间存在高度的非线性关系。一个模糊的、缺乏语境的、问题定义不清的prompt,即使面对最强大的模型,也只能产生平庸的输出。而一个精确的、富含语境的、问题边界清晰的prompt,能够从同一个模型中提取出质量截然不同的输出。
这个非线性关系意味着:AI的普及并不会自动消除用户之间的能力差距,反而可能放大这种差距——因为它给了高质量提问者一个强大的杠杆,同时给了低质量提问者一个产生大量低质量输出的工具。
超级用户与普通用户的核心差异,在实践层面表现为以下几个维度:
问题分解能力: 超级用户能够将一个复杂的业务问题分解为AI可以有效处理的子任务序列,而不是把整个复杂问题直接扔给AI。这种分解能力需要对问题本质的深度理解,以及对AI能力边界的准确认知。
语境构建能力: 超级用户知道如何向AI提供足够的背景信息,使AI能够在正确的语境框架内生成输出。这需要对”什么是相关信息”的精准判断,而这种判断能力来自对领域知识的深度理解,而非对AI工具的熟练操作。
输出评估能力: 超级用户能够快速识别AI输出中的错误、偏差和盲点,并进行有效的迭代修正。这需要足够的领域专业知识和批判性思维能力,而不是更多的AI使用经验。
结果转化能力: 超级用户能够将AI的技术输出转化为有商业价值的决策和行动。这需要对商业语境的深度理解,以及将技术可能性与业务需求连接起来的整合能力。
以上4个维度,哪一个是纯粹的技术能力?答案是:几乎没有。它们都是认知能力和领域理解能力的组合,而人文训练——批判性阅读、论证分析、语境理解、概念精确化——对这些能力的培养具有直接的正向作用。
这里需要引入一个更尖锐的观察:AI技能差距的形成,在某种程度上是一个教育系统性失败的结果。过去20年,全球高等教育系统在”STEM优先”的叙事驱动下,系统性地压缩了人文教育的资源和地位。这个趋势培养了大量能够执行技术任务的毕业生,但对”定义问题”和”评估输出”这些元能力的培养严重不足。AI的普及使这个教育债务的代价变得可见——那些在人文训练中获得扎实元能力的人,正在成为AI超级用户,而那些只有执行层技能的人,正在被AI替代。
第四章:人才评估标准的范式断裂——从技能清单到元能力
前三章建立了一个论证基础:AI正在压缩执行层技能的价值,提问能力和元认知能力正在成为人机协作中人类独特价值的核心来源,AI超级用户与普通用户的差距本质上是元能力差距。现在我们需要面对最直接的商业问题:这对组织的招聘逻辑意味着什么?
传统的技术人才评估体系建立在一个隐含假设上:技能是可以通过标准化测试来验证的,而技能的堆叠等于能力的总和。这个假设催生了LeetCode刷题文化、技术面试流水线和基于工具熟练度的简历筛选体系。这套体系在AI之前有其合理性——当执行层任务是技术工作的主体时,执行层技能的验证是合理的筛选维度。
但当AI将执行层任务大幅自动化之后,这套评估体系的底层假设就开始失效。一个能够在白板上手写快速排序算法的工程师,在AI时代的实际工作价值,并不必然高于一个无法手写快速排序但能够精确定义业务问题、有效指导AI生成解决方案并准确评估输出质量的人文背景从业者。
Stanford的AI报告(根据Forbes对该报告的报道)指出了一个关键发现:AI agents已经准备好了,但企业还没有准备好。(来源:Forbes, 2026-04-14)这个”企业没有准备好”的核心,不仅仅是技术基础设施的问题,更是人才评估和组织能力的问题。企业还在用旧的标准评估人才,而旧标准所测量的能力正在被AI替代。
这场范式转移的具体表现,在招聘实践中已经开始出现,尽管速度参差不齐:
问题定义能力的显性化: 前沿技术公司开始在面试中增加”给定一个模糊的业务问题,你如何将其转化为可执行的技术任务”类型的评估,而不仅仅是算法题。这本质上是在测试候选人的问题分解和语境理解能力。
AI协作能力的直接评估: 部分公司开始在面试流程中引入”与AI协作完成任务”的环节,直接观察候选人如何构建prompt、如何评估输出、如何进行迭代——这些能力无法通过传统简历筛选来预测。
跨领域整合能力的溢价: 在AI时代,单一技术深度的价值在下降,而能够将技术能力与领域知识(医疗、法律、金融、教育等)深度整合的人才溢价在上升。这种整合能力的培养,需要人文社科训练所提供的跨领域思维框架。
伦理判断力的制度化: 随着AI系统的决策影响越来越广泛,组织对”AI伦理判断”能力的需求正在从边缘走向核心。这种能力的培养,在哲学、伦理学、社会学等人文学科中有更系统的训练体系。
然而,这里必须呈现一个重要的对立视角:有充分理由认为,这场”人文素养回归”的叙事存在被过度浪漫化的风险。
批评者的论点是有力的:在实际的工程组织中,能够深度理解AI系统技术局限的人(需要扎实的数学和计算机科学背景)仍然不可替代。能够设计可靠的AI评估体系、识别模型的系统性偏差、构建安全的AI基础设施的人,需要的是技术深度,而不是人文广度。如果企业在”人文素养很重要”的叙事影响下,开始系统性地降低对技术能力的要求,结果可能是灾难性的——大量能够”提出好问题”但无法评估AI技术输出可靠性的人进入技术组织,将导致AI系统的质量控制失效。
这个批评是正确的,但它指向的是一个错误的二元对立。Clark的核心论点从来不是”人文比技术重要”,而是”提问能力被系统性低估”。这两个命题是不同的。前者是一个错误的排序判断,后者是一个关于评估体系存在盲点的精确诊断。
我的判断是:AI时代最有价值的人才评估维度,是”元能力”而非”技能清单”。元能力包括:问题定义能力、质量判断能力、跨领域整合能力和伦理推理能力。这些元能力可以在技术背景上构建,也可以在人文背景上构建,但在过去20年的教育和招聘实践中,人文路径被系统性地忽视了。Clark的观点的真正价值,是在纠正这个系统性偏差,而不是在建立一个新的偏差。
对于组织而言,这意味着招聘标准需要从”候选人能做什么”转向”候选人能定义什么”。面试流程需要从验证技能清单转向评估元能力质量。培训体系需要从工具熟练度培训转向问题定义和批判性评估能力的培养。这些转变的执行难度远高于调整技术面试题库,因为元能力的评估本身就需要评估者具备高水平的元能力——这是一个递归性的挑战。
第五章:高等教育的结构性冲击——专业选择的重新校准
Clark的建议直接指向了高等教育系统。根据多个媒体报道的综合,他明确建议大学生重新审视专业选择,认为哲学、文学、历史等人文学科在AI时代具有被低估的价值。(来源:Business Insider, 2026-04;letsdatascience.com, 2026-04;sg.style.yahoo.com, 2026-04)
这个建议在当前的就业市场语境下具有相当的张力。一方面,AI相关职位仍然是就业市场上薪资溢价最高的领域之一;另一方面,Gen Z的失业率在多个主要经济体仍处于高位(来源:Fortune, 2026-04-14),而”学计算机好找工作”的叙事仍然主导着大量家庭的专业选择决策。
在这个语境下,Clark的建议面临一个现实的信任危机:它来自一个已经成功的人,而成功者的建议往往存在幸存者偏差。一个英语文学毕业生成为AI公司联合创始人,并不意味着英语文学是通往AI行业成功的可复制路径。
这个批评是合理的,但它混淆了两个不同的命题:
命题A(Clark没有说的): 学人文学科会让你在AI行业找到高薪工作。
命题B(Clark实际说的): 人文学科培养的元能力在AI时代具有被系统性低估的价值,这种低估正在被市场纠正。
命题B不需要依赖幸存者偏差来成立。它的成立依据是:LLM的工作原理使高质量的语言交互能力成为人机协作的核心瓶颈,而人文训练对这种能力的培养具有直接的正向作用。这是一个可以独立于Clark个人经历来验证的技术-教育交叉论点。
对于高等教育系统而言,AI时代的冲击不是简单地”人文学科重要性上升”,而是一个更复杂的重组:
人文学科的价值重构: 哲学(逻辑分析、伦理推理)、语言学(语义精确化、语境分析)、历史(模式识别、因果推断)、文学(叙事结构、歧义处理)等学科的核心训练内容,与AI时代所需的元能力之间存在高度的结构性对应。这种对应关系在AI之前就存在,但AI的普及使它变得可见和可量化。
技术教育的重心迁移: 计算机科学教育需要从”如何实现”向”如何定义和评估”迁移。算法实现课程的重要性在下降,而”AI系统设计与评估”、”人机协作工作流设计”、”AI伦理与风险评估”等课程的重要性在上升。这些课程的有效教学,需要引入大量来自人文社科的思维框架。
跨学科培养模式的紧迫性: 最有价值的教育输出,不是纯粹的技术人才或纯粹的人文人才,而是能够在两者之间进行有效转换的整合型人才。这需要高等教育系统打破现有的院系壁垒,构建真正意义上的跨学科培养路径——这在大多数大学的制度结构中,是一个极其困难的改革任务。
第六章:大多数人没看到的那一层——AI时代的认知垄断风险
前面5章的分析,基本上是在重复一个已经开始进入主流讨论的观点:人文素养在AI时代很重要。但这个讨论有一个盲点,而这个盲点比讨论本身更重要。
这个盲点是:提问能力的稀缺性,可能会成为一种新的认知垄断机制。
让我解释这个论点的逻辑链:
-
AI的普及使执行层技能的价值均质化——越来越多的人可以通过AI完成曾经需要专业技能的任务。
-
但AI的输出质量高度依赖输入质量,而高质量的输入(prompt)需要深度的元能力——这种元能力的培养需要高质量的教育投入,而高质量的教育资源分布是不均匀的。
-
因此,AI的普及不会自动带来机会均等,反而可能强化现有的教育资源不平等——那些接受过高质量人文教育(批判性思维、精确语言表达、复杂问题分解)的人,将在AI超级用户的竞争中系统性地占据优势。
-
这意味着AI时代的赢家,可能不是那些最早学会使用AI工具的人,而是那些在AI普及之前就已经通过高质量教育获得了深度元能力的人。
这个机制的政策含义是严峻的:如果”提问能力”成为AI时代最稀缺的硬通货,而提问能力的培养高度依赖教育质量,那么AI技能差距将在很大程度上复制和放大现有的教育机会不平等。来自优质教育资源家庭的学生,不仅在传统经济中占优,在AI经济中将获得更大的优势——因为他们的人文训练使他们成为天然的AI超级用户。
这是Clark的观点中最少被讨论的一个维度。他的建议(重新重视人文学科)是正确的,但它的受益者,在现实中可能主要是那些已经有条件选择”非功利性”专业的人——而这种条件本身就是教育特权的一种表现形式。
对于组织而言,这个洞察意味着:如果你的人才评估体系开始转向元能力,你需要同时设计更公平的元能力评估方法,否则你可能在无意中构建了一个以”文化资本”为筛选机制的精英主义招聘体系,而这个体系的多样性将比传统技术评估体系更差,不是更好。
结语:AI时代的操作系统——为什么提问能力是新代码
让我们回到起点。Jack Clark,英语文学学位,Anthropic联合创始人,在2026年4月说:”knowing how to ask the right questions beats knowing how to code。”
这句话的完整含义,在经过前面6章的分析之后,应该比初读时更清晰,也更复杂:
它描述的是一个真实的结构性转变。 AI正在压缩执行层技能的价值,Anthropic经济指数的数据支持这个判断,AI技能差距的研究证实了元能力的稀缺性。这不是一个励志故事,而是一个关于技能价值重组的产业现实。
它指向的是一个被系统性低估的能力维度。 在过去20年”STEM优先”的叙事主导下,人文训练所培养的元能力——批判性思维、精确语言表达、复杂问题分解、价值判断——在教育投资和人才评估中被系统性地低估了。AI的普及使这个低估的代价变得可见。
它不是在建立新的能力等级制度,而是在纠正旧的偏差。 Clark的核心论点不是”人文比技术重要”,而是”提问能力是元技能,而元技能的培养被忽视了”。这个纠偏的方向是正确的,但它需要被精确地理解,而不是被简化为”去学文科”。
它隐含着一个尚未被充分讨论的风险。 如果提问能力成为AI时代的核心竞争力,而提问能力的培养高度依赖教育质量,那么AI技能差距将在很大程度上复制教育机会不平等。这是这场讨论中最重要、也最被忽视的政策维度。
对于个体而言,Clark的建议可以被翻译为一个更具操作性的框架:无论你的专业背景是什么,主动培养以下能力——精确定义问题的能力、在复杂语境中提炼核心的能力、批判性评估输出质量的能力、将技术可能性与领域需求连接的整合能力。这些能力可以在任何专业背景上构建,但它们需要主动的、有意识的培养,而不会自动随着AI工具的使用频率增长。
对于组织而言,这意味着招聘和培训体系需要开始测量那些过去被视为”软技能”的元能力,同时需要设计公平的评估方法,避免将”文化资本”伪装成”元能力”。
对于高等教育系统而言,这意味着课程设计需要超越”人文vs理工”的二元对立,转向真正意义上的跨学科元能力培养——这是最难的改革,也是最必要的改革。
在AI时代,代码不再是最重要的语言。最重要的语言,是那个能够精确地告诉AI”我真正需要什么”的问题。而学会提出这个问题,需要的不是更多的技术训练,而是更深的认知训练——这,恰恰是人文教育最古老、也最持久的承诺。
参考资料
-
The billionaire Anthropic cofounder who majored in literature says knowing how to ask the right questions beats knowing how to code — Fortune, 2026-04-14
-
An Anthropic cofounder’s advice on what to study in college — Business Insider, 2026-04
-
Anthropic Economic Index report — Anthropic, 2026-03
-
The AI skills gap is here, says AI company, and power users are pulling ahead — TechCrunch, 2026-03-25
-
Stanford’s AI Report Card: Agents Are Ready. Companies Are Not — Forbes, 2026-04-14
-
Anthropic cofounder Jack Clark: Degrees that seemed mismatch to the age of AI are now actually fairly worthwhile — Times of India, 2026-04
-
Anthropic cofounder, a literature graduate, says studying humanities helped build AI — Economic Times, 2026-04
主题分类:劳动力变革