一位心脏病专科医生,没有任何软件工程背景,在一个周末用 Claude Code 构建了一个心脏超声报告自动生成工具。这不是硅谷创业者的故事,而是 Anthropic 在2026年初推出 Claude for Healthcare 系列能力后,正在全球数十家医疗机构中真实发生的场景。

这个事实之所以值得深度剖析,不是因为它代表了又一个「AI赋能」的营销叙事,而是因为它触及了医疗AI领域一个被长期忽视的结构性瓶颈——临床工具的构建者和使用者之间存在一条几乎不可逾越的鸿沟。过去10年,数十亿美元的医疗AI投资大多流向了由工程师主导、远离临床一线的产品开发模式。结果是:算法论文堆积如山,真正嵌入临床工作流的工具屈指可数。

现在,当大语言模型(LLM)的代码生成能力足够强大,强大到一个不会写 Python 的医生可以直接用自然语言描述需求并获得可运行的临床工具时,这条鸿沟第一次出现了被填平的可能。这不仅仅是效率工具的升级,而是医疗AI落地范式的根本性转变:从「工程师为医生造工具」到「医生为自己造工具」

但这条路远比表面看起来复杂。本文将深入分析这一转变的技术基础、商业逻辑、临床障碍,以及大多数人没有看到的深层风险。


1. 被忽视的瓶颈:为什么10年医疗AI投资没有换来临床渗透

要理解 Claude for Healthcare 的意义,首先需要理解医疗AI长期面临的核心困境。

医疗AI并不缺技术突破。从2012年深度学习在影像识别上的爆发,到2020年 AlphaFold 对蛋白质结构预测的革命性进展,算法层面的进步是实实在在的。但一个令人尴尬的事实是:截至2025年,FDA批准的AI/ML医疗设备数量虽已超过900个,但真正被纳入常规临床工作流、由医生日常使用的工具占比极低。

问题出在哪里?

第一层障碍是翻译成本。 一个临床需求从医生脑中的模糊想法,到变成一个可用的软件工具,中间需要经历需求定义、技术选型、原型开发、合规审查、EHR集成、用户培训等至少6-8个环节。每个环节都需要不同专业背景的人参与。一个简单的临床决策支持工具,在传统开发模式下,从立项到上线通常需要12-24个月,耗资数十万到数百万美元。

第二层障碍是认知错配。 工程师不理解临床场景的微妙之处,医生不理解技术实现的约束条件。这种错配导致大量医疗AI产品在技术指标上表现优异,但在实际临床环境中因为工作流不匹配、输出格式不符合医生习惯、或者没有解决真正的痛点而被弃用。Anthropic 在其官方博客中指出,推进 Claude 在医疗和生命科学领域的应用时,核心关注点之一就是如何让AI能力真正匹配临床工作流的实际需求 (来源: Anthropic 官方博客, “Advancing Claude in healthcare and the life sciences”)。

第三层障碍是迭代速度。 临床实践是高度动态的——指南更新、患者群体变化、新药上市、保险政策调整——所有这些都要求临床工具能够快速迭代。但传统软件开发周期无法跟上这种变化速度。一个为2024年临床指南设计的决策支持工具,到2025年上线时可能已经过时。

这三层障碍叠加的结果是:医疗AI领域存在一个巨大的「最后一公里」问题。不是缺算法,不是缺数据,而是缺乏一种让临床专家能够直接将领域知识转化为可用工具的机制。


2. Claude for Healthcare 的技术架构:不只是「让医生写代码」

Anthropic 在2026年初通过一系列动作明确了其医疗垂直化战略。Claude for Healthcare 并不是一个单一产品,而是一组针对医疗场景优化的能力集合,其中最引人注目的是 Claude Code 在临床场景中的应用。

根据 Anthropic 官方网络研讨会 “Claude Code in Healthcare: How Physicians Are Building with Claude” 的内容 (来源: Anthropic Webinar, 2026年),这一能力的核心设计理念可以概括为三个层次:

2.1 自然语言到临床工具的直接转化

Claude Code 允许医生用自然语言描述他们的需求——例如「我需要一个工具,输入患者的肌酐值、年龄和体重,自动计算eGFR并根据KDIGO指南给出CKD分期建议」——然后由 Claude 自动生成可运行的代码。这不是简单的代码补全,而是端到端的工具生成:从数据输入界面、计算逻辑、到结果展示和异常值警告,一次性完成。

连续健康科技创业者、CTO Hadi Javeed 在其深度访谈中详细描述了他所称的「Claude Skills in the Clinic」概念——即将 Claude 的能力模块化,使其能够像临床技能一样被医生直接调用和组合 (来源: Techy Surgeon Substack, “Claude Skills in the Clinic with Hadi Javeed”)。Javeed 的核心观点是:当AI编码能力达到一定阈值后,临床领域知识本身就成为了最稀缺的「编程能力」

2.2 医疗领域特化的安全层

与通用代码生成不同,Claude for Healthcare 在代码生成过程中嵌入了医疗特定的安全检查机制。这包括但不限于:

  • 药物剂量边界检查:当生成涉及药物计算的代码时,自动添加剂量上下限验证
  • 单位一致性验证:医疗场景中单位错误(如mg与mcg混淆)可能致命,Claude 在代码生成时会主动进行单位一致性检查
  • 临床指南版本追踪:生成的工具会标注所依据的临床指南版本,便于后续更新

Anthropic 在其医疗战略博客中强调,安全性是其医疗布局的核心原则,而非附加功能 (来源: Anthropic 官方博客, “Advancing Claude in healthcare and the life sciences”)。这一点在技术实现上体现为:Claude 在医疗场景中的 refusal rate(拒绝回答率)被刻意调高——当模型对某个医疗问题的置信度不足时,它会明确表示不确定性,而非生成一个看似合理但可能有误的答案。

2.3 与现有医疗IT基础设施的集成能力

一个临床工具如果不能与医院的电子健康记录(EHR)系统、实验室信息系统(LIS)或影像归档系统(PACS)对接,就只是一个玩具。Claude for Healthcare 的技术架构中包含了对 FHIR(Fast Healthcare Interoperability Resources)标准的原生支持,这意味着医生生成的工具可以直接读写标准化的医疗数据格式。

这一点的重要性怎么强调都不为过。FHIR 是当前医疗数据互操作性的事实标准,被 Epic、Cerner(现 Oracle Health)等主流 EHR 厂商支持。Claude 对 FHIR 的原生理解,使得医生生成的工具不再是孤立的「小脚本」,而是有可能真正嵌入临床信息流的组件。


3. 真实案例的深度解剖:1年临床AI开发的实战教训

理论分析之外,我们需要看真实的实践数据。一位使用 Claude 编码构建医疗应用长达1年的实践者在其详细复盘中提供了极为珍贵的一手经验 (来源: Eve Stel Substack, “1 Year Claude Coding Healthcare Apps. Here’s What I Actually Learned.”, 2026年)。

3.1 什么有效

该实践者的核心发现是:Claude 在生成「结构化临床逻辑」类工具时表现最为出色。具体包括:

  • 临床评分计算器:如 CHADS₂-VASc(房颤卒中风险评估)、MELD(终末期肝病模型)等。这类工具有明确的输入输出定义、标准化的计算公式和清晰的结果解释规则,非常适合 LLM 代码生成。
  • 临床指南决策树:将复杂的临床指南(如 ACC/AHA 心衰管理指南)转化为交互式决策支持工具。医生输入患者参数,工具自动导航指南推荐路径。
  • 数据可视化仪表板:将患者的纵向数据(如多次实验室检查结果的趋势)自动生成可视化图表,帮助医生快速识别变化趋势。

3.2 什么失败了

同样重要的是失败案例。该实践者明确指出了几个 Claude 代码生成在医疗场景中的局限:

复杂多步骤工作流的生成质量下降明显。 当需求从单一功能(如计算一个评分)扩展到多步骤工作流(如从EHR提取数据→计算评分→生成推荐→格式化为临床笔记→回写EHR)时,Claude 生成的代码质量和可靠性显著下降。这不是 Claude 特有的问题,而是当前所有 LLM 代码生成在处理复杂系统集成时的共性局限。

边缘情况处理不足。 临床数据充满了缺失值、异常值和非标准格式。一个为标准输入设计的工具,在遇到真实临床数据时往往会崩溃。例如,一个肾功能计算工具在遇到透析患者的极端肌酐值时可能给出荒谬的结果。Claude 生成的代码虽然在主流路径上表现良好,但对边缘情况的预见和处理能力仍然不足。

测试覆盖率的隐性风险。 这可能是最危险的问题:当一个非程序员使用 Claude 生成代码时,他们通常不会(也不知道如何)编写全面的测试用例。代码「能跑」不等于「正确」,在医疗场景中,这种差异可能致命。

3.3 被忽视的洞察:「认知卸载」的双刃剑效应

这里引入一个大多数技术分析忽视的维度。Fortune 在2026年4月的报道中指出,AI消除「脑力苦工」(cognitive drudgery)可能剥夺大脑的恢复机会 (来源: Fortune, 2026-04-11, “AI workers productivity brain recovery cognitive offload overload”)。

这一发现在医疗AI语境下有着特殊的含义。当医生使用 Claude 自动生成临床工具时,他们跳过了传统上需要深入理解底层逻辑的过程。一个手动编写 eGFR 计算器的医生,会在编码过程中被迫重新审视公式的每一个参数和假设。而一个用自然语言让 Claude 生成同一工具的医生,可能对底层逻辑的理解停留在表面。

这不是说 Claude 生成的代码不对,而是说使用者对代码正确性的验证能力被削弱了。 在一个错误可能致命的领域,这种「认知卸载」的风险需要被严肃对待。


4. 垂直自动化 vs. 水平平台:AI落地的路径之争

Claude for Healthcare 的出现,实际上折射出AI行业一个更大的战略分歧:AI应该以水平平台的方式落地,还是以垂直自动化的方式落地?

4.1 水平平台模式的困境

过去3年,AI行业的主流叙事是水平平台——构建通用能力足够强的基础模型,让各行各业自行适配。OpenAI 的 GPT 系列、Google 的 Gemini、Meta 的 Llama 都遵循这一逻辑。

但水平平台模式在医疗领域遇到了严重的摩擦。原因很简单:医疗不是一个可以用通用能力「覆盖」的领域,而是一个需要深度领域适配的领域。 一个通用 LLM 可以回答医学问题,但不能安全地嵌入临床工作流。差距不在于知识量,而在于安全边界、合规要求、工作流集成和责任归属等「非技术」维度。

arXiv 上的一篇研究论文 “Decoupling Content and Delivery for Medical QA” 提出了一个重要的技术框架:将医疗问答中的「内容」(医学知识的准确性)和「交付」(信息呈现的方式、语气、个性化程度)解耦 (来源: arXiv, 2601.02123v3)。这一框架的核心洞察是:在医疗场景中,AI的价值不仅取决于它「知道什么」,更取决于它「如何传达」以及「在什么上下文中传达」。 这种解耦需要深度的领域特化,是水平平台难以提供的。

4.2 Anthropic 的垂直化赌注

Anthropic 的策略显然是在通用模型能力的基础上进行垂直深耕。Claude for Healthcare 不是一个独立的医疗模型,而是在 Claude 通用能力之上叠加了医疗特定的安全层、知识层和集成层。

这一策略的商业逻辑是清晰的。根据 Madrona Ventures 的分析,Anthropic 的收入增长伴随着显著的成本压力——推理成本(inference cost)是其商业模式的核心挑战 (来源: Madrona, “The End of Cheap AI? Anthropic’s $30B Growth & Claude Pricing Shift”)。在这种背景下,垂直化是提高单位推理成本商业价值的最直接路径。一次通用对话的商业价值可能只有几美分,但一次嵌入临床工作流的推理调用,其商业价值可能是前者的100倍。

与此同时,Anthropic 在2026年4月发布了 Claude for Word Beta,直接挑战微软 Office 生态 (来源: Business Insider, 2026-04-11)。这一动作表面上是办公场景的扩展,但结合医疗战略来看,其深层逻辑是:Anthropic 正在系统性地将 Claude 嵌入各个垂直领域的核心工作流工具中。对医生来说是 EHR 和临床工具,对律师来说是 Word 和文档审阅,底层是同一个战略:从「对话式AI」转向「工作流嵌入式AI」。

4.3 Claude Mythos 的冲击波

值得注意的是,36氪在2026年4月报道了 Claude Mythos 的发布对 SaaS 市场的冲击——华尔街对 SaaS 市值蒸发2万亿美元的恐慌 (来源: 36氪, 2026年4月)。这一事件的本质是:当AI模型的能力足够强大时,传统垂直 SaaS 的价值主张面临根本性挑战。

在医疗领域,这意味着什么? 如果一个医生可以用 Claude Code 在一个周末构建一个临床评分计算器,那么售价数万美元的商业临床决策支持软件的价值主张就被严重削弱了。这不是假设——这正是 Claude for Healthcare 所引发的市场动态。

但这里存在一个关键的反论点:临床工具的价值不仅在于功能本身,更在于验证、维护和合规。 一个医生用 Claude 生成的工具可能在功能上等同于商业产品,但它没有经过临床验证、没有合规审查记录、没有持续维护保障。在一个高度监管的行业中,这些「非功能性」要素的价值可能远超功能本身。


5. 临床AI民主化的5大结构性障碍

尽管 Claude for Healthcare 展现了令人兴奋的可能性,但将其描述为「临床AI民主化的拐点」需要面对至少5个结构性障碍。

5.1 监管灰色地带

当一个医生用 Claude Code 生成一个临床决策支持工具并在自己的实践中使用时,这个工具是否需要 FDA 审批?答案取决于工具的具体功能和使用方式,但当前的监管框架对这种「医生自建工具」的场景并没有清晰的指引。

FDA 的 Software as a Medical Device (SaMD) 框架主要针对商业化的软件产品。一个医生为自己的临床实践构建的工具,理论上可能落入「clinical decision support」的豁免范围,但一旦这个工具被分享给同事或其他机构使用,监管边界就变得模糊。

这个灰色地带既是机遇也是风险。 机遇在于:它为医生自建工具提供了一定的监管空间。风险在于:一旦出现因AI生成的临床工具导致的医疗事故,监管机构可能迅速收紧政策,扼杀这一新兴实践。

5.2 医疗责任归属

如果一个医生使用 Claude Code 生成的药物剂量计算器给出了错误的剂量建议,导致患者受到伤害,责任归谁?是使用工具的医生?是生成代码的 Anthropic?还是提供底层计算公式的临床指南制定者?

当前的医疗责任法律框架假设医生是最终决策者,AI工具只是辅助。但当工具的构建过程本身也由AI完成时,医生对工具内部逻辑的理解和控制能力被削弱,传统的「learned intermediary」(知识中介)原则的适用性就成了问题。

截至本文发布时,暂无公开的法律判例或明确的监管指引来解决这一问题。但可以预见,这将是未来2-3年内医疗AI领域最重要的法律议题之一。

5.3 数据隐私与安全

医生使用 Claude Code 构建临床工具时,不可避免地会在提示词(prompt)中包含临床场景描述,甚至可能包含去标识化的患者数据。这些数据在 Anthropic 的服务器上如何处理、存储和保护,是一个严肃的合规问题。

在美国,HIPAA(健康保险可携性与责任法案)对受保护健康信息(PHI)的处理有严格要求。Anthropic 需要与医疗机构签署 Business Associate Agreement (BAA) 才能合法处理 PHI。Anthropic 在其医疗战略中确实提到了合规性方面的努力 (来源: Anthropic 官方博客, “Advancing Claude in healthcare and the life sciences”),但具体的 BAA 覆盖范围和数据处理细节,截至本文发布时暂无完整的公开信息。

五角大楼AI安全创业公司为国防机密构建护盾的报道 (来源: Fortune, 2026-04-11) 从侧面反映了一个趋势:高敏感度领域对AI安全基础设施的需求正在快速增长。医疗数据的敏感度虽然与国防机密不同,但在隐私保护的严格程度上有过之而无不及。

5.4 临床验证的缺失

这是最根本的障碍。一个医生用 Claude 生成的临床工具,即使代码逻辑完全正确,也缺乏临床验证——即在真实患者群体中验证其安全性和有效性的证据。

传统的临床决策支持工具在部署前通常需要经历:回顾性验证(用历史数据测试)→ 前瞻性验证(在真实环境中小规模测试)→ 全面部署。这个过程耗时数月到数年,但它提供了一个关键的安全网。

Claude for Healthcare 的「民主化」叙事面临的核心悖论是:加速工具构建的同时,验证过程并没有被加速。 一个医生可以在一个周末构建一个工具,但验证这个工具的安全性仍然需要数月。如果医生跳过验证直接使用,风险是显而易见的;如果要求完整验证,那么「快速构建」的优势就被大幅削弱。

5.5 可维护性与技术债务

这是一个被严重低估的问题。当一个非程序员医生用 Claude 生成了一个临床工具后,谁来维护它?当底层依赖库更新时,谁来确保工具仍然正常运行?当临床指南更新时,谁来修改工具中的硬编码参数?

1年实践复盘的作者明确指出,维护成本是AI生成医疗应用的最大隐性成本 (来源: Eve Stel Substack, 2026年)。一个工具的构建可能只需要几个小时,但它的生命周期维护可能需要数百个小时。对于没有编程背景的医生来说,当 Claude 生成的代码出现 bug 时,他们的调试能力是有限的——即使可以再次求助 Claude,但在不理解代码逻辑的情况下描述 bug 本身就是一个挑战。


6. 大多数人没看到的:临床AI民主化的真正赢家

在分析了机遇和障碍之后,让我们进入第三层洞察——大多数人没有看到的东西。

6.1 真正的赢家不是「医生开发者」,而是「临床信息学家」

Claude for Healthcare 最大的受益者不会是完全没有技术背景的临床医生,而是一个被长期低估的群体:临床信息学家(Clinical Informaticists)

这些人通常拥有医学学位和一定的技术背景(可能是生物医学信息学硕士或相关培训),他们理解临床工作流,也理解技术约束。在 Claude Code 出现之前,他们的技术能力不足以独立构建复杂的临床工具。但 Claude Code 恰好补齐了他们的短板——它将他们从「需求翻译者」升级为「工具构建者」

Hadi Javeed 在其访谈中隐含地指向了这一趋势:他描述的理想用户画像不是完全的技术小白,而是「懂临床、有一定技术直觉、但不会写生产级代码」的人 (来源: Techy Surgeon Substack)。这正是临床信息学家的画像。

6.2 EHR 厂商的战略困境

Claude for Healthcare 对 Epic、Oracle Health(原 Cerner)等 EHR 巨头构成了一种微妙但深远的威胁。

长期以来,EHR 厂商通过锁定临床数据和工作流来维持其市场地位。第三方工具要嵌入临床工作流,必须通过 EHR 厂商的 API 和应用市场(如 Epic 的 App Orchard)。这给了 EHR 厂商对临床AI工具生态的控制权。

但当医生可以用 Claude Code 直接生成基于 FHIR 标准的工具时,EHR 厂商的「看门人」角色就被部分绕过了。这不意味着 EHR 厂商会立即受到冲击——FHIR API 的访问权限仍然由他们控制——但它改变了谈判动态。当临床创新的瓶颈从「能不能做」变成「允不允许做」时,EHR 厂商面临的压力将从技术层面转向政策和商业层面。

6.3 Anthropic 的真正战略意图

从商业角度看,Claude for Healthcare 的战略意图远不止于卖 API 调用。

结合 Madrona 对 Anthropic 定价策略转变的分析 (来源: Madrona, 2026年),以及 Claude for Word Beta 的发布 (来源: Business Insider, 2026-04-11),Anthropic 的战略图景逐渐清晰:它正在构建一个「AI原生的垂直工作流平台」

在这个平台中,Claude 不是一个被调用的API,而是一个嵌入各个垂直领域核心工作流的智能层。在医疗领域,这意味着 Claude 将从「帮医生写代码」进化为「成为临床工作流的操作系统层」——管理数据流、执行决策逻辑、生成文档、协调多系统交互。

这一战略的风险在于:它要求 Anthropic 在每个垂直领域都建立深度的领域专业能力和合规基础设施。 这与 Anthropic 作为一家AI研究公司的核心能力存在张力。医疗合规不是算法问题,而是组织能力问题。Anthropic 是否有能力在保持技术领先的同时建立医疗级的合规体系,是一个开放性问题。


7. 对立视角的正面交锋

乐观派:「临床AI的iPhone时刻」

乐观者认为,Claude for Healthcare 代表了临床AI的「iPhone时刻」——就像 iPhone 让每个人都成为了移动应用的消费者(并催生了移动开发者生态),Claude Code 将让每个临床专家都成为AI工具的构建者。

支持这一观点的论据包括:

  • 临床领域知识是AI工具质量的最大瓶颈,让领域专家直接参与构建可以从根本上提高工具的临床相关性
  • 快速原型能力允许「试错式创新」,大幅降低了临床AI创新的门槛和成本
  • 医生自建工具的adoption率(采纳率)天然高于外部强加的工具,因为它解决的是医生自己识别的痛点

悲观派:「没有护栏的高速公路」

悲观者则警告,让没有软件工程背景的人在生命攸关的领域构建软件工具,是在建造一条没有护栏的高速公路。

支持这一观点的论据包括:

  • 软件工程不仅仅是写代码,更是关于测试、验证、版本控制、错误处理和可维护性的系统化实践。这些实践的缺失在医疗场景中可能致命
  • 「认知卸载」效应 (来源: Fortune, 2026-04-11) 意味着使用者对工具内部逻辑的理解和验证能力被削弱
  • 监管框架的缺失意味着当前的实践处于法律灰色地带,一旦出现严重事故,整个领域可能面临过度监管的反弹

我的判断

两种观点都部分正确,但都忽视了关键的中间地带。

临床AI的民主化不会以「所有医生都成为开发者」的形式实现,而是以「临床-技术混合角色的崛起」的形式实现。Claude for Healthcare 最大的价值不在于让零技术背景的医生独立构建工具,而在于:

  1. 降低了「最小可行技术能力」的门槛,使得更多具有一定技术直觉的临床专家能够参与工具构建
  2. 加速了原型到概念验证的周期,使得临床AI创新的「试错成本」大幅降低
  3. 改变了临床AI开发的权力动态,使得临床需求而非技术能力成为创新的起点

但这一切的前提是建立适当的安全护栏——包括临床验证流程、代码审查机制、监管框架和责任归属规则。没有这些护栏,民主化就是混乱化。


8. So What:这对你意味着什么

对医疗机构决策者

不要急于在全院范围内推广「医生自建AI工具」。相反,应该:

  1. 建立一个由临床信息学家主导的「AI工具验证委员会」,为医生自建工具提供审查和验证服务
  2. 投资临床信息学人才——这个群体将成为AI时代医疗机构最稀缺的人力资源
  3. 与 EHR 厂商谈判更开放的 FHIR API 访问权限,为自建工具的集成铺平道路

对医疗AI创业者

Claude for Healthcare 不是你的敌人,而是你的分销渠道。当医生可以用 Claude 快速构建原型时,你的价值主张应该从「构建工具」转向「验证、合规和维护工具」。这是一个更可持续的商业模式——构建可以被AI替代,但验证和合规不能。

对临床医生

学习使用 Claude Code 构建临床工具是值得投资的技能,但请记住:你生成的代码质量上限取决于你描述需求的精确度,而你验证代码的能力取决于你对底层逻辑的理解。 不要把 Claude 当作黑箱——花时间理解它生成的代码在做什么,这不仅是安全要求,也是学习机会。

对投资者

Claude for Healthcare 验证了一个投资主题:垂直AI的价值捕获将发生在「最后一公里」——工作流集成、合规、验证和维护——而非模型能力本身。 关注那些在特定临床领域建立了深度合规基础设施和临床验证能力的公司,它们将成为AI时代医疗IT生态中不可替代的节点。


结语

Claude for Healthcare 所代表的不是一个产品发布,而是一个范式转变的早期信号。当构建临床工具的门槛从「需要一个工程团队」降低到「需要一个周末和清晰的临床需求描述」时,医疗AI创新的瓶颈从技术能力转向了领域知识、安全验证和合规基础设施。

这个转变的深远影响在于:它重新定义了「谁有资格构建临床AI工具」这个问题的答案。答案不再是「拥有工程团队的科技公司」,而是「理解临床需求并能精确表达的领域专家」。但与所有范式转变一样,新的可能性伴随着新的风险,而风险管理的基础设施——监管框架、验证流程、责任规则——的建设速度,将决定这个拐点是通向临床AI的黄金时代,还是通向一场可以预见的安全危机。

赌注已经摆上了桌面。问题是:护栏能否跟上速度?


参考资料

  1. Advancing Claude in healthcare and the life sciences — Anthropic, 2026
  2. Claude Code in Healthcare: How Physicians Are Building with Claude — Anthropic Webinar, 2026
  3. 1 Year Claude Coding Healthcare Apps. Here’s What I Actually Learned. — Eve Stel, Substack, 2026
  4. Claude Skills in the Clinic with Hadi Javeed, CTO and serial health tech founder — Techy Surgeon, Substack, 2026
  5. Decoupling Content and Delivery for Medical QA — arXiv, 2026
  6. AI 消除”脑力苦工”可能剥夺大脑的恢复机会 — Fortune, 2026-04-11
  7. The End of Cheap AI? Anthropic’s $30B Growth & Claude Pricing Shift — Madrona Ventures, 2026
  8. Anthropic Claude for Word Beta 发布 — Business Insider, 2026-04-11
  9. Claude Mythos 危险性引发华尔街恐慌:SaaS 市值蒸发 2 万亿 — 36氪, 2026年4月

主题分类:企业AI落地