Palantir CEO的「文科终结论」:这是精英恐慌还是有据可查的预言?
Palantir CEO的「文科终结论」:这是精英恐慌还是有据可查的预言?
2026年4月11日,HumanX大会的台上,Palantir CEO Alex Karp用一句话点燃了会场:「AI将系统性摧毁人文学科相关工作岗位,职业技能培训才是解决就业位移的关键出路。」
这不是Karp第一次语出惊人。这位以哲学博士身份创建了一家军事AI公司的CEO,一向以「直说不好听的真相」自居。他在Palantir财报电话会议上引用德国浪漫主义哲学,在TED演讲中为战争AI辩护。但这一次,他触碰的是一个与数百万人就业前途直接相关的议题,触碰的方式是一个不加保留的终极判断:文科工作,将被AI终结。
这个判断值得认真对待,不是因为它一定正确,而是因为它来自一个在这个领域有真实利益的人,一个用哲学博士学位做出这个判断的人,一个每年向政府和大型企业销售AI分析系统的人。要评估这个判断,我们需要把它拆解成几个可以分别检验的子命题。
一、Karp说了什么,以及他为什么在这个时间点说
先完整还原Karp的论点:AI将系统性取代人文学科相关工作;职业培训(vocational training)——学习具体操作技能而非抽象人文知识——是应对AI就业冲击的正确路径;为AI打开更多应用场景(包括军事应用)是社会责任而非道德问题。
时间点的选择值得注意。2026年,AI工具在白领职场的渗透率已经从2023年的「先行者尝鲜」进入「主流标配」阶段。各大企业都在讨论「AI代替了多少员工」,政策辩论从「AI会不会取代工作」转向「AI已经在取代哪些工作」。在这个时间点说「文科被摧毁」,不是预测,而是宣判——它暗示这个过程已经发生,未来只是清算。
在HumanX大会这个特定场合说这些话,也很有意图。HumanX是AI与人力资源、人才管理交叉的行业峰会,主要受众是HR高管和人才战略决策者——恰恰是那些正在思考「是否要因AI调整招聘标准」的人。Karp的这番话,客观上给了他们一个「从高处降临的权威认可」:是的,你可以少招文科背景的人了。
二、哪些文科技能确实面临高风险:证据层面的梳理
公平对待Karp的论点,需要承认:他的担忧并非没有依据。
高风险的文科相关任务(基于当前AI能力的实际评估):
基础写作与内容生产:报告撰写、新闻稿、标准化商务邮件、格式化分析报告——这些任务的AI替代率已经很高。GPT-4级别的模型在完成这类任务时,速度比人类快数十倍,质量在平均水平以上。大量媒体机构和企业已经在使用AI自动生成标准化内容,相应的入门级内容岗位正在消失。这是真实发生的,不是假设。
初级数据分析与市场调研:传统上由应届文科生承担的「整理数据、制作图表、撰写分析报告」任务链,现在可以由AI在极短时间内完成。这个变化正在压缩文科背景应届毕业生的就业入门通道——以前你可以靠这些基础工作「学着干」,现在这些基础工作本身正在消失。
标准化法律文书与合规文档:基础合同起草、模板类合规报告、常规法律意见书——这些任务的AI辅助程度已经很高,大型律所的初级律师雇用需求正在放缓。
翻译和语言服务:专业翻译——曾经是语言类文科生的重要就业出口——已经在DeepL、GPT-4等工具的冲击下大幅萎缩,特别是商务翻译和技术文档翻译领域。
中层管理中的信息整合角色:那些主要职能是「聚合各方信息,整理成报告,向上汇报」的中间层岗位,其核心价值正在被AI大幅侵蚀。这类岗位在传统企业中大量是文科或MBA背景的人占据。
这些变化是真实的。Karp在这个层面是正确的。
三、哪些文科能力被严重低估:反驳层面的证据
但Karp的论点存在一个根本性的简化:他把「文科」等同于「可被AI替代的语言和思维任务」,而系统性忽略了文科训练中最不可替代的那些维度。
客户关系管理与信任建立:企业级销售、咨询顾问、高净值客户服务——这些岗位的核心价值是在人与人之间建立信任关系,理解客户的隐性需求,在不确定中给出可被接受的建议。AI可以辅助分析,但无法替代这种人际关系层面的价值创造。全球顶尖的咨询公司(McKinsey、BCG)招募仍然偏向社会科学和人文背景,原因不是传统,而是这类工作的实际需求。
跨文化理解与国际谈判:在全球化尚未终结的商业世界里,真正理解不同文化的决策逻辑、价值取向和沟通风格,仍然是极高价值的能力。这种理解不是AI可以通过大量语料训练出来的——因为真正的跨文化能力需要长期沉浸式体验,而非语言模式识别。
原创创意与叙事构建:区别一个「够用的」内容和一个「令人难忘的」内容,往往在于叙事的原创性和情感深度。AI可以生产大量「够用的」内容,这已经压低了内容生产的门槛价格。但「令人难忘的」内容——那些真正改变认知、推动行动的故事——的价值反而在提高,因为信息爆炸使注意力更稀缺。
道德判断与价值权衡:在商业决策的复杂情境中,AI可以列出所有选项及其可能后果,但它无法代替人类做出具有道德担当的选择。随着AI的广泛应用,「对AI输出负责的人类判断」变得更加重要,而不是更不重要。
政治和制度理解:在与政府、监管机构、国际组织打交道的场景中,理解制度逻辑、政治生态和权力关系的能力,是AI目前远未触及的领域。Palantir自己能成为美国政府最大的AI系统供应商之一,靠的恰恰是少数既懂技术又懂政府生态的人的能力——这是典型的人文社科训练培养的能力。
四、阶级视角的解码:谁在说「别学文科」?
这是Karp论点中最值得深挖的层面。
Alex Karp本人的学历是:法兰克福大学哲学博士(师从哲学家Jürgen Habermas),斯坦福法学院学位。他是最典型意义上的「受过深度人文教育」的人。
当一个拥有顶级人文教育背景的CEO,告诉普通年轻人「不要学文科,去学职业技能」,这个建议的阶级结构一目了然:精英继续接受批判性思维、哲学推理、政治理解的深度训练,以便掌控和影响AI系统的走向;普通人去学职业技能,成为AI系统的操作者而非设计者。
这不是Karp个人的恶意,而是这类「精英建议普通人接受职业培训」的话语所内嵌的系统性逻辑。相似的话语模式在历史上反复出现:工业革命时,「给普通工人更好的工厂培训」和「让精英受益于古典教育」并行不悖;数字革命时,「普通人学会使用软件」和「精英学习如何构建软件生态」是两个不同的命题。
在AI革命中,这个结构正在再次复制:「普通人学会操作AI工具」和「精英学会理解和影响AI的价值判断」,是两个不同的命题,但Karp把它们混在了一起。职业培训可以让你成为更好的AI工具操作员,但它不能给你分析OpenAI工业政策白皮书的能力——而恰恰是后者,决定了谁将在AI时代掌握社会资源的分配话语权。
五、Palantir的利益格局:为什么Karp的话不是中性建议
分析任何商业领袖的公开言论,都必须问这个问题:他的利益在哪里?
Palantir的商业模式是向政府和大型企业销售AI数据分析和决策支持系统。Palantir的核心客户是:美国情报机构、国防部、大型金融机构和全球性企业集团。
当Karp说「AI将摧毁文科工作」,并为AI在政府和军事领域的应用辩护,他同时在做的事情是:
扩大Palantir的可寻址市场:如果AI将取代大量人力资源分析、政策研究、情报分析等工作,政府和企业的合理应对是购买Palantir这样的AI分析系统,而不是继续雇用人。Karp的话是在为客户「做决策」提供认知框架。
降低政策阻力:AI对就业的冲击是潜在的监管风险。如果Karp能成功建立「职业培训解决就业问题」的叙事,就在一定程度上对冲了「AI造成大规模失业」的监管担忧。
招募信号:「AI将摧毁文科工作」的论断,配合「职业培训是出路」的建议,隐含的逻辑是「只有技术/STEM背景才有价值」。这恰好有利于Palantir在科技背景人才市场上的品牌形象。
指出这些利益关联不是说Karp在说谎。利益格局与正确判断完全可以兼容。但它意味着:Karp的话不是中性的观察者立场,而是具有特定商业背景的当事人判断,应该以相应的怀疑眼光审视,而不是直接当作客观分析接受。
六、错误框架:这不是「文理之争」,而是「可编码性之争」
现在来到这个问题最重要的分析层次——Karp的「文科被摧毁论」在根本上建立在一个错误的分析框架上。
AI替代工作的真正边界,不是「文科」还是「理科」,而是可预测性、可标准化、可编码化。
可编码的任务——有明确输入输出关系、遵循既定规则、可以被充分描述的任务——无论以前属于哪个学科,都面临高AI替代风险。这包括:基础代码编写(理科)、数据分析(理科/社科)、标准化法律文书(法学/文科)、会计核算(理科应用)、基础医学诊断(医学/理科)。
不可编码的任务——涉及模糊情境、价值判断、创意生成、复杂人际关系、不确定性下的决策——无论以前属于哪个学科,AI替代能力都很有限。这包括:战略决策(工商管理)、创意广告(文科)、外科手术中的临机判断(医学/理科)、新产品研发(工程)、高端客户关系(商科)。
用这个框架重新分析,「文科高薪岗位被低AI替代,文科低薪岗位被高替代」——不是因为「文科」这个类别,而是因为高薪文科岗位(顶尖律师、战略顾问、高管)的核心任务恰好是不可编码的,而低薪文科岗位(基础文案、数据录入、初级分析)的核心任务恰好是高度可编码的。
同样的逻辑适用于理工科:高薪理工岗位(AI研究员、芯片架构师、首席工程师)的核心任务是不可编码的,而低薪理工岗位(基础IT运维、简单数据处理、标准测试)的核心任务是高度可编码的。
Karp的「文科将被摧毁」在统计意义上可能是正确的——因为文科低薪基础岗位在数量上占多数,而这些岗位确实面临高风险。但正确的政策建议应该是「重构教育内容,无论文理,都要培养不可编码能力」,而不是「放弃文科,学职业技能」——后者可能反而把人推向未来同样面临AI替代的「职业技能」岗位。
七、证据检验:劳动力数据说了什么?
让我们用数据检验Karp的预言。
现实数据(基于美国劳工统计局2025年数据):
- 2023-2025年,「内容创作和媒体」类岗位确实出现显著收缩,与AI写作工具的普及同期
- 同期,「AI训练数据标注」「AI系统审计」「AI产品经理」等新职位快速增长
- 法律行业的初级律师雇用增速放缓,但高级律师和专业律师的薪酬和需求上升
- 咨询行业的应届毕业生招聘减少,但项目总量并未大幅下降——每个项目用更少的初级顾问完成同等工作
这些数据揭示的图景是:基础岗位在收缩,高级岗位(至少在短期内)相对稳定,但对应聘者的能力要求大幅提高。
这与「文科被摧毁」的叙事部分一致,但与「职业培训是出路」的建议并不一致。职业培训针对的是操作技能,而2025-2026年职场对「文科技能」的需求变化,主要体现在「对更高层次的文科能力需求上升,对基础文科工作需求下降」——这个变化的正确响应是「升级文科能力」,而非「放弃文科能力」。
八、对个人职业规划的实际指导
从这场辩论中,可以提炼出几条对个人职业规划真正有用的洞察:
第一,不要用「文科还是理科」这个框架做职业决策。使用「我想做的工作有多少核心任务是不可编码的」这个框架。医院管理是不可编码的,尽管不是「技术岗」;基础数据分析是高度可编码的,尽管需要理科背景。
第二,在任何学科选择中,都要关注「AI无法替代的核心能力培养」。批判性思维、跨文化理解、复杂伦理判断、创意生成——这些能力可以在文科中培养,也可以在理工科中培养,关键是选择那些刻意培养这些能力的课程和训练方式。
第三,Karp说的职业培训建议对特定人群是合理的——那些已经错过深度高等教育机会、需要在近期就业的成年人。对他们来说,学习具体的AI工具操作技能确实是近期价值最高的投资。但对于仍在教育阶段的年轻人,放弃系统性思维训练去追求短期技能,是错误的优化目标。
第四,「文科 + AI技能」的组合可能是未来最稀缺的人才结构。当大量理工科背景的人都拥有AI工具技能时,那些同时具备深度人文理解和AI技术应用能力的人将拥有独特竞争优势——他们不只能用AI,还能理解AI在复杂人类情境中的限制和风险。
九、结语:真问题被错误答案掩盖了
Karp提出了一个真实的问题:AI正在冲击大量文科背景的就业,这需要教育和培训体系的系统性回应。这是真的,值得严肃对待。
但他给出的答案——职业培训取代人文教育——混淆了「帮助今天受AI冲击的成年劳动者快速再就业」(职业培训有效)和「培养未来20年高价值劳动力的教育路径」(不是简单职业培训能解决的)这两个完全不同的问题。
更根本的问题是:在一个AI可以做越来越多事情的世界里,教育的目标应该是什么?如果答案是「培养能操作工具的技工」,那确实应该扩张职业培训;如果答案是「培养能理解、质疑、创造和引领AI的人」,那需要的恰恰是更深层的人文和科学融合教育,而非更窄的技能培训。
这个问题的答案决定了哪一类人将在AI时代真正掌握主动权。Karp已经做出了自己的选择——法兰克福学派的哲学训练给了他足够的批判性思维,让他能够创建Palantir并在这个位置上宣布「文科没用」,但这个说法的受众不会和他享有相同的教育资本。
这或许是这场论争最值得玩味的地方:他用文科思维证明了文科没有价值。
十、历史视角:「旧工作消失,新工作诞生」的叙事有多可靠?
在讨论AI就业冲击时,有一个标准的反驳叙事经常被援引:「技术革命从来都会先消灭旧工作,再创造新工作,最终劳动力总量不会减少,只是结构会改变」。工业革命取代了手工业者,但创造了大量工厂工人岗位;自动化取代了流水线工人,但创造了大量技术维护和软件开发岗位。这个历史模式能否适用于AI?
答案是:不确定,且这次可能有实质性不同。
历史上的技术替代,主要针对的是体力劳动和重复性程序性任务——这些任务在认知复杂度上是有明确上限的。机器取代的是「按既定程序执行」的能力,但无法替代「设计新程序」「调试问题」「理解客户需求」的能力。所以,技术革命总是在消灭「程序执行者」的同时,创造更多的「系统设计者」和「系统维护者」。
AI的根本性不同在于:它能替代的不只是程序执行,还包括相当程度的认知推理和模式识别——以前被认为是「知识工作者」独有的能力。这意味着AI可能同时消灭「程序执行者」(基础文科工作者)和「系统设计者」(中层分析师和规划者)的岗位,而新创造的岗位——AI系统审计、AI产品经理、AI训练数据质量管理——其数量可能远少于被替代的岗位总量。
经济学界对这个问题尚无定论。乐观派(Autor、Acemoglu的部分研究)认为AI会创造新的互补性工作;悲观派(Lawrence Summers等人的担忧)认为这次技术替代的速度和范围超过了历史先例,就业结构可能需要数十年才能重新平衡。
在这个不确定性下,Karp的「职业培训」建议提供了一个务实但可能短视的解决方案——帮助今天受冲击的劳动者快速再就业,但并不必然是「正确的长期教育战略」。
十一、教育体系的实际响应方向
超越Karp的二元对立框架(文科 vs 职业培训),有哪些更有建设性的教育策略方向?
方向一:文理融合,跨越单一学科边界
未来最有价值的人才将不是纯粹的「理工人」或「文科人」,而是能在两个领域之间自如切换的「双栖人才」:既懂AI系统的工作原理和局限性,又能理解技术在社会、伦理、政治维度的复杂影响。这类人才的培养,需要从本科阶段就打破文理分科的壁垒,建立真正的交叉学科培养路径。
方向二:批判性思维与可迁移能力优先
无论学什么专业,核心能力培养的重心应该转向:评估证据、识别逻辑谬误、在不确定性中做决策、与AI协作但不依赖AI的批判性判断能力。这些能力是可迁移的——无论未来什么工作消失,具备这些能力的人都能找到自己的位置。
方向三:AI素养成为基础教育必修项
「AI时代的读写能力」——理解AI系统的基本工作原理、评估AI输出的可靠性、识别AI偏见和错误——应该成为像数学和语文一样的基础教育必修内容,而不是「技术专业」的选修课。
方向四:终身学习基础设施建设
鉴于AI带来的工作结构变化速度极快,任何单次的「职业培训」都只能解决当下的问题,无法解决5年后的问题。真正的解决方案是建立能够支持成年人持续学习和适应的社会基础设施——而这需要的不只是职业技能培训,还需要批判性思维能力,以便个人能够自主评估哪些新技能值得学习。
十二、结语:真问题被错误答案掩盖了
Karp提出了一个真实的问题:AI正在冲击大量文科背景的就业,这需要教育和培训体系的系统性回应。这是真的,值得严肃对待。
但他给出的答案——「职业培训取代人文教育」——混淆了两个完全不同的问题:「帮助今天受AI冲击的成年劳动者快速再就业」(职业培训有效)和「培养未来20年高价值劳动力的教育路径」(不是简单职业培训能解决的)。
更根本的问题是:在一个AI可以做越来越多事情的世界里,教育的目标应该是什么?如果答案是「培养能操作工具的技工」,那确实应该扩张职业培训;如果答案是「培养能理解、质疑、创造和引领AI的人」,那需要的恰恰是更深层的人文和科学融合教育,而非更窄的技能培训。
这个问题的答案,将决定哪一类人在AI时代真正掌握主动权。Karp已经用自己的人生做出了选择——法兰克福学派的哲学训练给了他足够的批判性思维,让他创建了Palantir并在这个位置上宣布「文科没用」。他的受众,却不会享有同样的教育资本去做出相同的判断。
这或许是这场论争最值得玩味的地方:他用深刻的人文教育背景训练出的批判性思维,论证了人文教育没有价值。这本身就是对他论点最好的反驳。
对于正在为专业选择纠结的年轻人而言,这场辩论最实用的启示不是「选文科还是选理科」,而是「无论选什么专业,都要问自己一个问题:这个教育路径是否会系统性地训练我在AI无法替代的维度上成长?」如果答案是肯定的,那就去学;如果你发现自己的教育只是在学习如何使用工具,而不是如何深刻思考工具的局限和超越工具去创造价值,那就需要认真重新评估。这个框架适用于任何专业,无论文理,也不区分职业培训和学术教育。真正重要的问题始终是同一个:你在发展的,是AI能轻松替代的能力,还是目前AI无法替代的能力?
参考资料
-
Palantir CEO Alex Karp says AI ‘will destroy’ humanities jobs Fortune 2026-04-11 https://fortune.com/article/palantir-ceo-alex-karp-ai-humanities-jobs-vocational-training/ — Karp在HumanX大会发言原文,职业培训建议 -
U.S. Bureau of Labor Statistics Occupational Outlook Handbook BLS 2025 https://www.bls.gov/ooh/ — 职业就业趋势数据 -
The Future of Employment: How susceptible are jobs to computerisation? Frey & Osborne, Oxford 2013 https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf — 工作可自动化程度分析经典文献 -
AI and the Economy NBER 2024 https://www.nber.org/papers/w32487 — AI对就业结构影响的近期经济学研究 -
Palantir Technologies 2025 Annual Report Palantir 2026 https://investors.palantir.com/ — Palantir商业模式与客户结构背景数据