当7000次会话记录指向同一个结论:AI服务「静默降级」正在制造一场消费者权益危机
2026年4月初,一位AMD AI方向的工程师在技术社区发布了一份令人不安的分析报告。他在过去数月间系统性地记录了超过7000次Claude Code会话数据,试图回答一个在开发者社区持续发酵的问题:Claude是不是变差了?(来源: WinBuzzer, 2026-04-07)
这不是一次随意的抱怨。这是一位拥有系统性工程训练的专业人士,用数据驱动的方法论,试图将一种广泛存在的「体感」转化为可量化的证据。而他的结论指向了一个让Anthropic难以回避的方向——性能确实在下降。
几乎在同一时间窗口内,多个独立信源汇聚成一幅令人担忧的图景:Anthropic被指在未通知用户的情况下降低了模型的思考计算能力(来源: inkl.com, 2026年4月);Claude自身在服务中断期间的表现也被用户解读为质量下滑的信号(来源: Let’s Data Science, 2026年4月);甚至有媒体以「Claude is getting worse, according to Claude」为标题,报道了这场愈演愈烈的信任危机(来源: The Register, 2026-04-13)。
这些事件单独来看,每一件都可以被解释为孤立现象——服务器负载波动、用户预期膨胀、确认偏误。但当它们在同一时间段密集出现,指向同一家公司的同一款核心产品时,问题的性质就发生了根本性转变:这不再是「Claude是否变差了」的技术争论,而是AI-as-a-Service商业模式中一个结构性缺陷的集中暴露——用户为AI能力付费,却没有任何机制来验证自己获得的能力是否与承诺一致。
这是AI行业的「大众排放门」时刻吗?也许还不是。但它揭示的问题,比任何一次具体的性能波动都更加深远。
第1章:风暴眼——从开发者论坛的低语到系统性信任崩塌
要理解这场争议的烈度,必须先理解它的用户基础。
Claude,尤其是Claude Code,不是一个面向普通消费者的聊天玩具。它的核心付费用户群体是软件工程师、数据科学家和技术决策者——这些人每天用它生成代码、调试系统、构建产品原型。对他们而言,Claude不是「好玩的工具」,而是生产力基础设施。当一个工程师说「Claude今天写的代码质量不如上周」,这不是茶余饭后的闲聊,而是一个直接影响交付效率和产品质量的生产事故信号。
2026年初以来,开发者社区中关于Claude性能退化的讨论从涓涓细流汇成洪流。用户报告的问题高度一致:代码生成的准确性下降、复杂推理任务中的逻辑连贯性退化、长上下文对话中的「遗忘」现象加剧、以及一种难以精确描述但广泛感知到的「思考深度缩水」。(来源: blockchain.news, 2026年4月; The Register, 2026-04-13)
这些反馈的模式值得注意。它们不是来自一个平台、一个地区或一个使用场景。从Reddit到X(前Twitter),从GitHub Issues到独立技术博客,从北美到欧洲到亚太,不同背景的用户在没有协调的情况下描述了高度相似的体验退化轨迹。
然后,争议的温度被一则报道急剧升高:Anthropic被指在未通知用户的情况下,降低了模型在推理过程中分配的计算资源——通俗地说,就是让Claude「想得更少」了。有专家将这一现象与AI需求增长对GPU供应链形成的压力联系起来,暗示这可能是一种成本驱动的「静默降级」。(来源: inkl.com, 2026年4月)
Anthropic的官方回应——或者更准确地说,缺乏足够清晰和及时的官方回应——进一步加剧了用户的不信任。在一个信息真空中,叙事权被社区接管。「Nerf」(削弱)成为开发者讨论Claude时的高频词汇。(来源: blockchain.news, 2026年4月)
这里存在一个关键的认知断层,而大多数人没有看到它的深层含义。
用户的愤怒表面上是关于「性能」的,但其内核是关于「控制权」的。当一个工程师选择将Claude嵌入自己的开发工作流,他实质上是在将自己的生产力绑定到一个他无法审计、无法控制、甚至无法监测的黑箱系统上。当这个黑箱的输出质量发生变化——无论是真实的还是感知的——用户发现自己处于一个极其脆弱的位置:他既没有工具来证明变化发生了,也没有合同条款来要求补偿,更没有替代方案来无缝迁移。
这就是AI时代的vendor lock-in(供应商锁定),而它比传统SaaS的锁定更加隐蔽和危险。传统SaaS产品降级——比如降低存储配额或减少API调用次数——用户可以立即通过仪表盘看到变化。但AI模型的「降级」是连续的、概率性的、难以度量的。你无法在一个dashboard上看到「今天Claude的推理深度比昨天降低了12%」这样的指标,因为这个指标本身就不存在于用户可见的任何界面上。
第2章:数据说话——当1个工程师的7000次会话撞上信息不对称的铁墙
AMD AI方向工程师的7000次会话记录之所以引发广泛关注,不仅因为其数据量,更因为它代表了一种用户端「自救式」的质量审计尝试。(来源: WinBuzzer, 2026-04-07)
让我们拆解这个案例的方法论意义。
一位专业工程师,利用自己的技术能力,系统性地记录与Claude Code的交互数据,然后对输出质量进行纵向比较分析。这在本质上是一次单用户视角的逆向性能审计。他试图用统计方法回答一个看似简单实则极其复杂的问题:在控制输入变量的情况下,模型输出的质量是否随时间呈现下降趋势?
这个尝试本身就暴露了一个根本性的结构问题:在当前的AI服务架构中,性能验证的举证责任事实上被转嫁给了用户,而用户几乎不可能完成这个举证。
原因是多层次的。
第1层:测量标准的缺失。 什么是「代码质量」?什么是「推理深度」?什么是「回答的有用性」?这些概念在人类直觉中清晰可辨,但在计量学意义上极其模糊。一位工程师可以说「上个月Claude写的Python函数更优雅、bug更少」,但将这种判断转化为可复现的定量指标,需要建立一套完整的评估框架——而这套框架目前不存在于用户端的任何工具链中。
第2层:基线数据的不可获得性。 即使你定义了合理的质量指标,你也需要一个可靠的基线来进行比较。但AI模型的输出是概率性的——同一个prompt在不同时间可能产生不同的输出,而这种差异可能是正常的随机波动,也可能是模型变更的结果。要区分这两者,你需要大量的统计样本和对模型内部状态的了解——后者完全掌握在服务提供商手中。
第3层:变量控制的不可能性。 用户端的使用环境在持续变化:prompt的复杂度、上下文长度、并发负载、网络延迟、API版本——任何一个变量的变化都可能影响感知到的输出质量。一位工程师用7000次会话试图控制这些变量,但在没有服务端数据的情况下,他无法排除所有混淆因素。
第4层:信息的根本不对称。 这是最核心的问题。Anthropic知道自己在什么时间点对模型做了什么调整——权重更新、推理参数修改、计算资源重新分配、A/B测试分组——但用户对这些一无所知。这种信息不对称意味着,即使用户收集了7000次、70000次会话数据,他们的分析结论也永远可以被服务商以「你没有控制住X变量」为由否定。
这就是为什么这位AMD工程师的努力,尽管令人尊敬,但在认识论层面上注定是不完备的。 他能够建立「用户端感知到的质量变化的统计证据」,但无法建立「服务商主动降低模型能力」的因果证据。这两者之间的鸿沟,恰恰是AI公司可以安全藏身的灰色地带。
blockchain.news在其分析中进一步指出了这种困境的商业延伸:当用户无法确定性能是否被降级时,他们面临的不仅是技术判断问题,更是vendor lock-in风险的急剧放大。如果你已经围绕Claude构建了整个开发工作流、积累了大量的prompt工程经验、甚至基于Claude的特定行为模式设计了产品功能,那么即使你「感觉」到了降级,迁移到GPT-4o或Gemini的成本也可能高到让你选择忍受。(来源: blockchain.news, 2026年4月)
这创造了一个扭曲的激励结构:AI公司的用户粘性越强,它在性能调整上的自由度就越大,因为用户的退出成本已经高到足以容忍一定程度的质量下降。 这不是阴谋论——这是微观经济学。
第3章:基准测试的幻觉——排行榜上的冠军为什么可能是你桌面上的平庸之辈
如果用户无法从自身体验中可靠地度量AI性能变化,那么行业基准测试能否充当「第三方裁判」?
答案是令人失望的:不能。至少在当前形态下不能。
Kili Technology在其2026年AI基准测试指南中直言不讳地指出了一个行业公开的秘密:现有的基准测试评估体系与真实用户体验之间存在结构性脱节,基准测试的局限性使其无法充分反映模型在实际应用中的表现。(来源: Kili Technology, 2026)
这种脱节的机制是什么?
首先是「峰值能力」与「一致性」的错位。 绝大多数基准测试衡量的是模型在特定任务上的最佳表现——MMLU、HumanEval、MATH、ARC等经典benchmark测试的是「这个模型在理想条件下能做到什么」。但用户关心的是「这个模型在我的日常使用中表现如何」——这涉及响应的一致性、不同复杂度任务之间的性能均匀度、长时间交互中的质量保持能力,以及在边缘情况下的优雅降级。一个在HumanEval上得分95%的模型,完全可能在用户的实际代码生成任务中表现得参差不齐,因为benchmark的prompt是精心设计的,而用户的prompt是混乱的、模糊的、充满隐含假设的。
其次是「静态快照」与「动态服务」的错位。 基准测试通常在模型发布时进行一次,然后这个分数就成为该模型的「身份标签」。但AI-as-a-Service是一个持续运行的动态系统——模型可能被微调、推理参数可能被调整、计算资源分配可能随负载变化。一个在发布日跑出顶尖benchmark分数的模型,在3个月后的生产环境中可能已经是一个「不同的模型」——但它的benchmark分数不会更新,因为没有人在持续地重新测试。
第三是「任务覆盖」的系统性盲区。 Stanford的研究团队已经明确指出了AI模型中存在的不透明性问题以及基准测试的缺陷。(来源: Stanford/SignalPlus, 2026) 现有benchmark覆盖的任务类型高度集中在学术性的、有标准答案的领域——数学推理、代码生成、知识问答。但用户在实际使用中最依赖AI的场景往往是开放式的:「帮我重构这段遗留代码」、「分析这份商业计划的弱点」、「为这个API设计错误处理策略」。这些任务没有标准答案,因此也没有对应的benchmark。
第四,也是最关键的:基准测试可以被「教学到考试」式地优化。 这是AI行业的另一个公开秘密。当模型开发者知道自己的模型将被哪些benchmark评估时,他们有强烈的动机——也有充分的技术手段——针对这些benchmark进行优化。这不一定意味着作弊,但它意味着benchmark分数的提升不一定反映通用能力的提升。一个在MMLU上刷出新高分的模型,可能只是在训练数据中加入了更多与MMLU题型相似的样本,而非真正提升了推理能力。
SparkCo在其AI模型透明度指南中强调,真正的模型透明度不仅仅是公开benchmark分数,还应该包括训练数据的来源与构成、模型架构的变更历史、推理时的计算资源配置、以及已知的局限性和失败模式。(来源: SparkCo, 2026) 但在当前的竞争环境中,几乎没有AI公司愿意提供这种级别的透明度——因为这些信息既是商业机密,也是竞争对手可以利用的情报。
这里隐藏着一个大多数人没有看到的深层洞察:基准测试体系的失灵不是一个技术问题,而是一个激励问题。
基准测试的设计者、使用者和被评估者之间存在复杂的利益纠葛。AI公司需要好看的benchmark分数来吸引用户和投资者;媒体需要简单的排行榜来制造新闻;用户需要一个简化的决策依据来选择产品。在这个生态中,没有任何一方有足够的动机去建立一套真正反映用户体验的评估体系——因为这样的体系必然是复杂的、昂贵的、结论模糊的,不适合用来做标题党,也不适合用来做销售话术。
结果就是:AI行业建立了一套精致的评估剧场(evaluation theater),所有参与者都心知肚明它的局限性,但所有人都默契地维护它,因为它服务于每个人的短期利益——除了最终用户。
第4章:商业逻辑vs用户权益——GPU成本压力下的静默妥协
现在让我们进入这场争议最敏感的地带:如果Anthropic确实在某种程度上调整了模型的推理计算资源,其背后的商业逻辑是什么?
要理解这一点,必须先理解AI推理经济学的基本面。
每一次用户与Claude的交互,都需要消耗GPU算力。模型越大、思考越深(更多的推理token、更长的思维链)、上下文窗口越长,单次推理消耗的计算资源就越多。对于像Anthropic这样提供API和消费级订阅服务的公司来说,推理成本是最大的可变成本项之一。
有专家指出,AI需求的增长已经开始对GPU供应形成压力。(来源: inkl.com, 2026年4月) 这意味着Anthropic面临的不仅是成本问题,还有物理资源的约束——即使你愿意花钱,短期内也不一定能买到足够的GPU来满足所有用户的峰值需求。
在这种约束下,AI公司面临一个经典的资源分配困境,而它的解决方案选项是有限的:
选项A:提价。 直接向用户传递成本压力。这在商业上是诚实的,但在竞争激烈的市场中可能导致用户流失。当OpenAI、Google DeepMind和开源模型(如Meta的Llama系列)都在争夺同一批用户时,提价是一个高风险策略。
选项B:降低单次推理的计算资源分配。 在用户不知情的情况下,减少模型在每次响应中「思考」的深度——比如缩短内部思维链、降低采样温度、减少候选回答的生成数量。这在用户端的表现可能是微妙的:回答变得更快但更浅、代码生成变得更简洁但更容易出错、复杂推理任务中的逻辑链条变得更短。
选项C:差异化服务。 对不同用户层级(免费、Pro、API)提供不同级别的计算资源。这在商业上是合理的,但如果没有明确告知用户,就构成了一种隐性的服务降级。
选项D:优化推理效率。 通过技术手段(模型蒸馏、量化、推测性解码等)在不降低输出质量的前提下减少计算消耗。这是理想的解决方案,但技术进步的速度不一定能跟上需求增长的速度。
现实中,AI公司很可能同时采用了多个选项的组合。问题不在于它们做了什么选择——任何商业实体都有权利进行成本优化——问题在于它们是否告知了用户。
这就引出了一个核心的法律和伦理问题:AI服务提供商是否有义务在调整模型性能参数时通知用户?
在传统SaaS行业,这个问题有相对清晰的答案。如果Salesforce降低了其CRM系统的API调用速率限制,或者AWS改变了某个服务层级的性能配置,它们通常会通过变更日志(changelog)、服务公告或直接通知来告知用户。这不仅是行业惯例,在许多情况下也是服务等级协议(SLA)的合同义务。
但AI服务目前处于一个监管和合同的灰色地带。翻开Anthropic、OpenAI或Google的服务条款,你会发现它们通常保留了在不通知用户的情况下修改模型行为的广泛权利。这些条款在法律上可能是有效的,但它们与用户的合理预期之间存在巨大的落差——当你为Claude Pro支付月费时,你的心理预期是获得一个稳定的、不会被单方面削弱的AI助手,而不是一个服务商可以随时调低功率的黑箱。
Thales Digital Trust Index 2026的调查结果为这一讨论提供了一个重要的宏观背景:AI在提升生产力方面的采用率在增长,但当AI开始自主行动时,用户的信任度会显著下降。(来源: Thales/MarketScreener, 2026) 这个发现的潜台词是:用户对AI的信任建立在「可预测性」和「可控性」之上。 当AI服务的行为变得不可预测——无论是因为性能波动还是静默降级——信任就会被侵蚀。
而这里是大多数分析忽略的第3层洞察:静默降级对AI行业的长期伤害远大于短期节省的成本。
AI行业目前正处于一个关键的采用拐点。企业客户正在从「实验性使用」转向「生产级部署」。这个转变需要的核心条件不是更高的benchmark分数,而是可靠性和可预测性。一个CTO在决定是否将Claude嵌入公司的核心工作流时,他最关心的不是Claude在某个benchmark上是否比GPT-4o高2个百分点,而是:这个服务的质量是否稳定?它的行为是否可预测?当出现问题时,服务商是否透明?
静默降级——无论其程度多么轻微——直接摧毁的正是这种信任基础。它向企业客户传递的信号是:你无法信任这个服务的稳定性,因为服务商可能在任何时候、以任何方式、出于任何原因改变你获得的服务质量,而你甚至不会被告知。
Anthropic在2026年的营收增长势头强劲——据报道其年化营收已经超越了OpenAI(来源: The AI Corner, 2026)——但如果信任危机持续发酵,这种增长的可持续性将面临严峻考验。在AI服务市场中,用户的切换成本虽然存在但并非不可逾越,特别是当多模型策略(multi-model strategy)正在成为企业客户的主流做法时。(来源: blockchain.news, 2026年4月)
第5章:制度真空——谁来定义「你买到的AI应该有多聪明」?
让我们把视角从单一公司的争议拉升到系统层面。Claude性能降级争议暴露的不仅是Anthropic的透明度问题,而是整个AI服务行业面临的制度真空。
当前的监管框架完全没有覆盖AI服务质量标准。
欧盟的AI Act主要关注AI系统的风险分类和安全合规,但没有涉及AI服务的性能一致性或版本变更披露义务。美国的AI监管仍处于行政命令和行业自律阶段,没有任何联邦法规要求AI服务提供商在调整模型性能时通知用户。中国的生成式AI管理办法关注的是内容安全和算法备案,同样没有触及服务质量透明度的议题。
这意味着,在全球范围内,AI公司目前可以在不违反任何法律的情况下,随意调整其模型的性能参数而不通知用户。这不是一个法律漏洞——它是一片法律荒原。
那么,应该由谁来填补这个真空?
路径1:行业自律。 AI公司自愿建立模型版本变更的披露机制。这是成本最低的路径,但也是最不可靠的。在竞争压力和成本约束下,自愿披露的动机极其薄弱。SparkCo的AI模型透明度指南呼吁AI公司主动提供更全面的透明度报告(来源: SparkCo, 2026),但呼吁和执行之间的距离,在商业世界中往往是无限远的。
路径2:消费者保护法的扩展适用。 现有的消费者保护法律(如美国FTC的不公平商业行为条款、欧盟的消费者权利指令)理论上可以适用于AI服务的「静默降级」——如果一个公司在广告中承诺了某种级别的AI能力,然后在用户不知情的情况下降低了这种能力,这可能构成虚假广告或不公平商业行为。但这需要监管机构主动执法,而目前没有任何主要监管机构将AI服务质量列为执法优先事项。
路径3:类比电信行业的SLA监管模式。 电信行业有成熟的服务质量监管框架——运营商必须公示网络速度、可用性保证和违约赔偿条款。AI服务在某种程度上与电信服务具有相似性:都是持续提供的、用户难以自行验证质量的、具有一定公用事业属性的服务。但电信SLA的前提是服务质量可以被客观度量(网速、延迟、丢包率),而AI服务质量的度量——如前文所述——远比电信服务复杂。
路径4:第三方审计机制。 建立独立的AI服务质量审计机构,定期对主要AI服务进行性能测试并公布结果。这类似于J.D. Power对汽车行业的质量评估,或Consumer Reports对消费品的独立测试。这个路径在技术上可行,但需要解决资金来源(谁付费?)、方法论标准(测什么?怎么测?)和法律效力(审计结果是否具有约束力?)等关键问题。
我的判断是:短期内最可能发生的变化不会来自监管机构,而会来自市场竞争本身。
原因很简单:在一个多模型竞争的市场中,透明度本身可以成为差异化竞争优势。如果OpenAI率先建立了完善的模型版本变更日志和性能一致性承诺,而Anthropic没有,那么企业客户在做采购决策时就有了一个明确的偏好信号。反之亦然。第一个将「性能透明度」作为卖点的AI公司,将在企业市场中获得显著的信任溢价。
但市场竞争驱动的透明度是有限度的。它只会覆盖那些对企业客户有直接商业价值的信息,而不会延伸到更广泛的消费者保护领域。对于个人订阅用户——那些每月支付20美元使用Claude Pro的人——市场竞争提供的保护远不如制度性的消费者权益保障。
第6章:被忽视的系统性风险——当AI基础设施的可靠性假设被动摇
最后,让我们讨论这场争议中最少被提及但可能影响最深远的维度。
Claude性能降级争议的深层影响不在于Anthropic是否真的降低了模型能力——这个事实问题最终可能永远无法被确凿地证实或证伪。它的深层影响在于:它动摇了一个正在形成中的基础假设——AI服务可以被当作可靠的基础设施来依赖。
过去2年,整个科技行业的叙事都在推动AI从「工具」向「基础设施」的转变。AI不再是你偶尔使用的辅助工具,而是你的代码编辑器、你的数据分析平台、你的客户服务系统、你的内容生产管线的核心组件。这个转变的前提是:AI服务的行为是可预测的、稳定的、可信赖的。
但Claude的争议告诉我们:这个前提可能是脆弱的。
如果一个AI服务可以在用户不知情的情况下改变其行为特征,那么所有基于这个服务构建的下游系统都面临一种新型的风险——上游模型漂移风险(upstream model drift risk)。这不同于传统的供应商风险(供应商倒闭或停止服务),因为服务本身仍在运行,只是其行为特征发生了不可预测的变化。对于依赖AI输出做关键决策的系统来说,这种风险可能比服务中断更加危险,因为它更加隐蔽。
想象一个场景:一家金融科技公司使用Claude的API来辅助信贷审批决策。如果Claude的推理深度在某次未公告的调整中被降低,导致其对边缘案例的分析变得更粗糙,那么信贷审批的质量就会下降——但这种下降可能需要数周甚至数月才能通过贷款违约率的上升被检测到。到那时,损失已经发生。
这不是假设性的风险。这是AI-as-a-Service模式在生产环境中部署时必须面对的现实问题。而当前行业对这种风险的认知和管理能力,远远落后于AI部署的速度。
blockchain.news的分析建议企业采用多模型策略(multi-model strategy)来对冲单一模型的风险(来源: blockchain.news, 2026年4月),这在方向上是正确的,但在实践中面临巨大的工程复杂度。在多个模型之间实现无缝切换和一致性保证,本身就是一个极具挑战性的工程问题。而且,如果整个行业都存在透明度不足的问题,那么分散到多个供应商只是分散了风险,并没有消除风险。
结语:So What——这对你意味着什么
如果你是AI服务的付费用户:开始建立自己的质量基线。系统性地记录你与AI服务的关键交互,建立可回溯的质量档案。不是因为你需要成为下一个记录7000次会话的AMD工程师,而是因为在一个缺乏第三方审计的市场中,你自己的记录是唯一可以依赖的证据。同时,认真评估你对单一AI服务的依赖程度,考虑multi-model策略的可行性。
如果你是企业技术决策者:在AI采购和部署决策中,将「透明度和变更通知机制」作为与性能benchmark同等重要的评估维度。在合同中明确要求模型版本变更的提前通知义务和性能SLA条款。如果你的供应商拒绝提供这些条款,这本身就是一个重要的信号。
如果你是AI公司的产品或工程负责人:认识到透明度不是成本,而是竞争壁垒。在一个所有竞争者都在benchmark分数上激烈角逐的市场中,第一个建立起可信的性能透明度体系的公司,将在企业市场中获得难以复制的信任优势。发布详细的模型变更日志、提供用户可访问的性能监控工具、建立明确的性能一致性承诺——这些措施的成本远低于失去企业客户信任的代价。
如果你是监管政策制定者:AI服务质量透明度是一个正在快速形成的消费者权益议题,而你的监管工具箱里目前没有任何专门的工具来应对它。不需要立即制定全面的AI服务质量法规——这在技术快速演进的阶段可能适得其反——但至少应该开始要求AI服务提供商在服务条款中明确披露其模型变更政策,并建立用户投诉和争议解决的基本框架。
Claude性能降级争议的最终事实真相也许永远不会完全明朗。但它引发的问题——当你为AI能力付费时,你究竟买到了什么?谁来保证你买到的东西不会在你不知情的情况下被改变?——将定义AI商业化下一个阶段的竞争格局和监管走向。
这不是一个关于Anthropic的故事。这是一个关于AI行业是否能够在规模化的同时维持用户信任的故事。而信任,一旦被系统性地侵蚀,其修复成本将远远超过任何GPU节省下来的费用。
参考资料
- AMD Engineer Logs 7,000 Sessions Proving Claude Code Got Worse — WinBuzzer, 2026-04-07
- Claude is getting worse, according to Claude — The Register, 2026-04-13
- Anthropic Quietly Reduced Thinking Power Without User Notice — inkl.com, 2026年4月
- Claude Code Nerf Allegations: Data-Backed Analysis, Vendor Lock-In Risks, and Multi-Model Strategy in 2026 — Blockchain News, 2026年4月
- AI Benchmarks Guide: The Top Evaluations in 2026 and Why They’re Not Enough — Kili Technology, 2026
- Thales Digital Trust Index 2026 — Thales/MarketScreener, 2026
- Stanford Flags Opacity in AI Models and Flawed Benchmarks — SignalPlus, 2026
- Comprehensive Guide to AI Model Transparency — SparkCo, 2026
- Anthropic Passed OpenAI in Revenue — The AI Corner, 2026
- Claude Signals Declining Quality Amid Outages — Let’s Data Science, 2026年4月
主题分类:AI商业模式