Claude Code 双重危机:供应链恶意软件 + 第三方工具被切断,AI 工具链的信任裂痕
2025年6月,两股冲击波几乎同时穿透了 Anthropic 的开发者生态。第一波:安全研究人员在 npm 仓库中发现了伪装成 Claude Code 源码包的恶意软件,内含数据外泄后门,专门窃取 AI API 密钥。第二波:Anthropic 单方面终止了对多个第三方 Claude 集成工具的 API 访问授权,导致付费用户在毫无预警的情况下失去工作流。与此同时,社交媒体上涌现出大量截图——原本每月 $20 的 Claude Pro 订阅用户,在使用 Claude Code 后收到了 $200、$500 甚至超过 $1000 的账单。
需要说明的是,这三个事件的精确时间线并不完全重合——npm 恶意包攻击是持续性的供应链安全问题,账单争议从 Claude Code 5月公测起就已出现,而第三方工具被切断的具体日期各有不同。但它们在2025年6月集中进入公众视野,共同勾勒出一个正在浮现的系统性风险:当 AI 编码工具从”辅助玩具”升级为”生产力基础设施”时,围绕它的供应链安全、平台治理和定价透明度,没有一个跟上了节奏。
第1层:发生了什么
恶意软件事件:npm 生态的老问题遇上 AI 新猎物
2025年6月,专注于开源供应链安全的公司 Socket 的研究团队标记了一组上传至 npm 的恶意包。根据 Socket 在其官方博客上发布的分析报告,这些包的命名直接模仿 Anthropic 官方的 Claude Code CLI 工具,采用经典的”typosquatting”(包名抢注)手法:攻击者注册与官方包名高度相似的变体,等待粗心的开发者执行 npm install 时落入陷阱。Socket 的报告明确列出了相关恶意包名称,包括 claude-code(不带官方 @anthropic-ai 作用域前缀的仿冒版本)等变体。
根据 Socket 团队的分析,恶意包内嵌了经过混淆的脚本,核心功能包括:(1)收集本机环境变量,特别是 ANTHROPIC_API_KEY、OPENAI_API_KEY 等 AI 服务密钥;(2)扫描 .env 文件和配置目录;(3)将收集到的数据通过 HTTPS 外传到攻击者控制的服务器。攻击者的目标非常精准——专门瞄准正在使用 AI 编码工具的开发者群体,因为这些人的机器上大概率存储着高价值的 API 密钥。
这种攻击向量之所以危险,是因为 Claude Code 的安装本身就需要通过命令行执行 npm install -g @anthropic-ai/claude-code(来源: Anthropic 官方文档),而 npm 生态长期以来缺乏有效的包验证机制。GitHub/npm 从2022年起分阶段推行强制 2FA——2022年5月宣布计划,2023年逐步对高影响力包的维护者执行,到2024年进一步扩大覆盖范围(来源: GitHub Blog)。但对新上传的包,npm 注册表仍然缺乏实质性的恶意代码预审机制。
Anthropic 切断第三方工具:平台权力的单方面行使
在相近的时间窗口内,多个基于 Claude API 构建的第三方开发者工具突然失去了访问权限。受影响的包括一些提供 Claude 增强界面、团队协作功能或定制化 prompt 管理的独立工具——这些工具通常以月费模式向终端用户收费,依赖 Anthropic 的 API 作为底层服务。
Anthropic 给出的官方理由集中在”违反使用条款”(Terms of Service)上,但具体的违规细节并未被公开透明地传达给所有受影响方。根据多位被终止访问的开发者在 Hacker News 上的讨论帖中的陈述,他们收到的通知措辞模糊,且申诉渠道要么不存在,要么响应极慢。
一位开发者在 Hacker News 上写道:”我们在 Anthropic 的 API 上构建了18个月的产品,拥有付费用户,一夜之间被关停,没有过渡期,没有数据迁移窗口。”多位独立开发者报告了类似经历。需要指出的是,这些陈述来自单方面叙述,Anthropic 可能有其未公开的合理理由——但问题的核心在于,这些理由确实没有被公开。
账单暴增:$20 到 $500+ 的”惊喜”
Claude Code 于2025年5月正式推出公开测试版,作为 Anthropic 进军 AI 编码工具市场的核心产品,直接对标 GitHub Copilot 和 Cursor。与传统的聊天界面不同,Claude Code 是一个在终端中运行的 AI 代理(agent),能够直接读取、编辑和创建文件,执行 shell 命令,管理 git 操作——本质上是一个拥有代码库完整上下文的 AI 程序员。
问题在于定价模型。Claude Code 的使用并不包含在 $20/月的 Claude Pro 订阅中——它按 API 消耗量计费,走的是 Anthropic API 的 token 计费通道。但这一关键信息在产品的早期推广中并未被充分强调。大量用户在 Reddit 的 r/ClaudeAI 子版块中报告,他们在以为自己使用的是 Pro 订阅额度的情况下大量使用 Claude Code 进行项目开发,直到月底收到了远超预期的账单。
多位 Reddit 用户发帖展示了数百美元的月度账单截图,其中一位表示:”我以为 Claude Code 和 Claude.ai 一样是 Pro 订阅的一部分。没有任何地方有明确的费用预警或消费上限设置。”另有用户报告了超过 $1000 的费用,原因是 Claude Code 在执行复杂的重构任务时自主发起了大量的 API 调用,而用户并未意识到每次调用都在消耗付费 token。
Anthropic 随后在其定价页面上增加了更明确的说明,并为 Claude Code 引入了可选的消费上限(spending cap)功能,但对于已经产生的高额账单,公司的退款政策仍然是逐案处理(case-by-case),没有统一标准。
第2层:为什么这些事情集中出现很重要
AI 编码工具的”权限膨胀”问题
要理解这些事件的关联性,首先需要理解 Claude Code 代表的技术范式转变。传统的 AI 编码辅助工具(如早期的 GitHub Copilot)本质上是一个”自动补全引擎”——它在 IDE 内运行,只能在光标位置插入代码建议,没有文件系统访问权限,没有 shell 执行能力,其攻击面(attack surface)相对有限。
Claude Code 则完全不同。它以 CLI 代理的形式运行,需要以下权限:(1)读取整个项目目录的文件内容;(2)创建和修改任意文件;(3)执行任意 shell 命令;(4)访问环境变量(包括 API 密钥);(5)进行网络请求。这意味着,当一个恶意包伪装成 Claude Code 被安装时,它天然地获得了开发者可能赋予真正 Claude Code 的全部权限——因为开发者已经被训练为”给 AI 工具高权限是正常的”。
这就是恶意软件事件的深层含义:AI 编码代理正在重塑开发者对”合理权限”的心理预期。当你习惯了让 AI 工具读取你的整个代码库、执行 shell 命令时,你对一个 npm 包要求类似权限的警惕性会显著降低。攻击者正是利用了这种认知转变。
平台依赖性的不对称风险
第三方工具被切断事件则暴露了 AI 平台经济中一个被严重低估的结构性问题:API 依赖的不对称性。
在传统的云计算生态中(AWS、Azure、GCP),平台提供商与第三方开发者之间存在相对成熟的治理框架——SLA(服务等级协议)、提前通知期、争议解决机制。但在 AI API 领域,这些治理机制几乎不存在。Anthropic 的 API 使用条款赋予了公司几乎不受限制的单方面终止权,且无需提供具体理由。
这不是 Anthropic 独有的问题。OpenAI 也曾因政策原因终止过第三方应用的 API 访问,Google 的 Gemini API 同样保留了类似的单方面终止条款。但 Anthropic 的情况更加敏感,原因有两个:
第一,Anthropic 一直以”安全优先”(safety-first)作为品牌核心叙事,这使得任何不透明的治理行为都会被放大解读。第二,Claude Code 的推出使得开发者对 Anthropic 的依赖从”可选的 API 调用”升级为”核心工作流嵌入”。当你的日常编码工作依赖 Claude Code 时,被切断访问的代价不再是”换一个 chatbot”,而是”整个开发流程中断”。
定价透明度:AI 代理经济的”隐性成本”
账单暴增事件指向了一个更广泛的行业趋势:AI 代理(agent)的定价模型与用户的心理模型之间存在根本性错位。
在订阅制模式下,用户的心理预期是”固定月费,无限使用”——这是 Netflix、Spotify 和 ChatGPT Plus 训练出来的消费习惯。但 AI 代理的实际成本结构是按 token 计费的——一个复杂的编码任务可能涉及数十轮对话、数万行代码的上下文传递,token 消耗量可以轻松达到普通聊天的 50-100 倍。
根据 Anthropic 官方定价页面(2025年6月),Claude Opus 4 的 API 定价为输入 $15/百万 token,输出 $75/百万 token;Claude Sonnet 4 的定价为输入 $3/百万 token,输出 $15/百万 token。一个中等规模的代码重构任务——比如重构一个 5000 行的 Python 项目——可能需要 Claude Code 读取全部源文件(输入约 50 万 token)、生成修改建议(输出约 10 万 token)、验证修改结果(再次读取和生成),总计消耗超过 200 万 token。如果使用 Opus 4,仅这一个任务的成本就可能达到 $20-$30,而一个活跃的开发者每天可能执行多个类似操作。
问题不在于定价本身不合理——AI 推理的计算成本确实很高——而在于从”订阅心智”到”按量计费心智”的转换没有被充分引导。Anthropic 在这一点上的产品设计存在明显缺陷:早期版本没有实时的费用仪表盘、没有默认的消费上限、没有在高消耗操作前的费用预警。
第3层:大多数人没看到什么
洞察1:AI 供应链攻击正在从”广撒网”转向”精准狩猎”
npm 恶意包攻击本身不是新闻——根据 Sonatype 发布的《2024 State of the Software Supply Chain Report》,2024年全年 npm 生态中被发现的恶意包超过 7000 个。但针对 AI 工具用户的定向攻击代表了一个质变。
传统的 npm 供应链攻击通常瞄准的是”凭证收割”——窃取 AWS 密钥、数据库密码等。但 AI API 密钥是一种新型的高价值目标,原因在于:
-
变现路径更短:一个被盗的 Anthropic API 密钥可以立即被用于大规模 API 调用,攻击者可以用它来运行自己的 AI 服务(俗称”API 密钥寄生”),或者在地下市场转售。鉴于 Claude Opus 4 的高昂定价,一个有效的 API 密钥在黑市上的价值可能达到数千美元。
-
检测更困难:与传统的服务器入侵不同,API 密钥被盗后的异常使用模式很难与合法使用区分——特别是当受害者本身就是高频 API 用户时。
-
攻击面正在指数级扩大:随着 Claude Code、OpenAI Codex CLI 等 AI 编码代理的普及,越来越多的开发者在本地环境中存储 AI API 密钥。根据 GitGuardian 发布的《State of Secrets Sprawl 2025》报告,在公开 GitHub 仓库中泄露的密钥(secrets)数量持续大幅增长,其中 AI 服务相关密钥是增长最快的类别之一。(注:该报告的具体增长百分比因密钥类型而异,此处不做过度精确的单一数字引用。)
更深层的问题是:AI 编码代理本身可能成为供应链攻击的放大器。设想这样一个场景——开发者使用 Claude Code 来管理项目依赖,Claude Code 建议安装一个看似合理的 npm 包,而这个包恰好是恶意的。AI 代理的”推荐”赋予了恶意包一层额外的可信度。这不是纯理论推演——2024年,安全研究员 Bar Lanyado 在 Lasso Security 的一项研究中发现,ChatGPT 和 Copilot 会在代码建议中推荐不存在的包名(即”幻觉包”,hallucinated packages),而攻击者可以提前注册这些包名并植入恶意代码。Vulcan Cyber 的后续研究进一步证实了这一攻击向量的可行性。
洞察2:Anthropic 的”平台化转型”正在制造治理真空
Anthropic 切断第三方工具的行为,表面上看是一个简单的”平台治理”问题,但如果你把它放在 Anthropic 的整体战略转型中来看,它揭示了一个更深层的张力。
Anthropic 正在从一家”模型提供商”(model provider)转型为一家”平台公司”(platform company)。这个转型的标志性事件包括:2025年5月推出 Claude Code(直接面向终端开发者)、Claude for Enterprise(面向企业客户的定制化部署)、以及持续扩展的 Claude.ai 消费级产品。每一步都在将 Anthropic 从”API 批发商”推向”端到端平台”。
问题在于:当你同时扮演”平台”和”参与者”时,利益冲突是不可避免的。
第三方工具被切断的一个可能原因是:这些工具与 Anthropic 自己的产品形成了直接竞争。例如,一些第三方工具提供了比 Claude.ai 更好的团队协作功能、更灵活的 prompt 管理、或者更低的使用成本(通过 API 调用优化)。当 Anthropic 推出自己的同类功能时,这些第三方工具就从”生态伙伴”变成了”竞争对手”。
这与 Amazon 在电商领域的经典策略如出一辙——先允许第三方卖家在平台上繁荣,收集数据了解哪些品类最赚钱,然后推出自有品牌直接竞争。欧盟的《数字市场法案》(Digital Markets Act, DMA)正是为了应对这种”平台-参与者”双重角色而设计的,但 AI API 平台目前完全不在 DMA 的监管范围内。
更令人担忧的是,Anthropic 在这一事件中展现的治理透明度远低于行业预期。作为一家以”负责任 AI”为核心品牌叙事的公司,Anthropic 发布了详尽的模型安全报告(如 Responsible Scaling Policy),但对于开发者生态的治理规则,却几乎没有任何公开的、可预期的框架。这种”对模型安全高度透明,对平台治理高度不透明”的不对称,正在侵蚀开发者社区对 Anthropic 的信任。
洞察3:AI 代理的”成本不可预测性”是一个被低估的产品风险
账单暴增问题的根源不仅仅是”定价页面写得不够清楚”——它指向了 AI 代理架构的一个根本性特征:成本不可预测性(cost unpredictability)。
传统的 SaaS 工具,即使是按量计费的(如 AWS Lambda),其成本也是相对可预测的——你知道一个 API 调用大概消耗多少计算资源,你可以根据历史数据建立成本模型。但 AI 代理的 token 消耗量取决于任务的复杂度、上下文窗口的大小、代理的”思考”深度(特别是在使用 extended thinking 功能时),以及代理是否决定自主发起额外的操作。
Claude Code 的架构设计加剧了这个问题。它采用的是”代理循环”(agentic loop)模式——Claude Code 不只是回答一个问题,而是会自主规划任务、分解步骤、执行操作、验证结果、并在需要时回溯和重试。一个看似简单的指令(如”重构这个模块以提高性能”)可能触发数十轮内部推理循环,每一轮都消耗大量 token。而用户在终端界面上看到的只是最终结果,对中间过程的 token 消耗几乎没有可见性。
这个问题在 Claude Opus 4 上尤为严重。Opus 4 是 Anthropic 目前最强大也最昂贵的模型,其输出 token 价格是 Sonnet 4 的 5 倍($75 vs $15/百万输出 token)。Claude Code 在处理复杂任务时可能自动升级到 Opus 4,而这个升级决策是由系统而非用户做出的——用户可能在不知情的情况下,从使用 Sonnet 切换到 Opus,成本差异高达 5 倍。
对比竞争对手的做法:GitHub Copilot 采用固定月费模式($10-$39/月),将 token 成本内化为平台成本;Cursor 采用混合模式,提供固定额度的”快速请求”(fast requests),超出后降级到慢速模型而非额外收费。这两种模式都在一定程度上解决了”成本不可预测性”问题,而 Anthropic 选择的纯 API 计费模式,虽然对高级用户更灵活,但对大众市场来说是一个严重的用户体验缺陷。
第4层:这意味着什么
对 Anthropic 的影响:信任资产正在流失
Anthropic 在2025年3月的融资中估值约为 $615 亿(来源: Bloomberg),这个估值的很大一部分建立在”最安全、最负责任的 AI 公司”这一品牌叙事上。但2025年6月的多重事件正在动摇这个叙事的根基。
恶意软件事件本身不是 Anthropic 的直接过失——任何流行的 npm 包都可能被仿冒。但 Anthropic 的应对速度和沟通透明度将被密切审视。相比之下,当2024年 xz-utils 后门事件爆发时,受影响的 Linux 发行版在24小时内就发布了详细的安全公告和修复指南。Anthropic 需要为 Claude Code 建立同等级别的安全响应机制。
第三方工具事件和账单暴增事件则是 Anthropic 的直接治理失败。如果 Anthropic 想要建立一个可持续的开发者生态,它需要在以下方面做出根本性改进:
- API 访问治理框架:公开、可预期的规则,包括明确的违规定义、分级处罚机制(警告 → 限流 → 终止)、合理的申诉流程和过渡期。
- 成本控制工具:默认启用的消费上限、实时费用仪表盘、高消耗操作前的确认提示、以及按任务而非按 token 的定价选项。
- 供应链安全:官方的包签名机制、安装验证脚本、以及与 npm 等包管理平台的合作来打击仿冒包。
对 AI 编码工具市场的影响:信任将成为核心竞争力
AI 编码工具市场正在进入一个关键的转折点。根据 Gartner 在2024年4月发布的预测,到2028年,75% 的企业软件工程师将使用 AI 编码助手,而2023年这一比例不到 10%。这意味着 AI 编码工具正在从”早期采用者的玩具”变成”企业级基础设施”。
在这个转变过程中,信任——而非纯粹的模型能力——将成为决定性的竞争因素。企业 CTO 在评估 AI 编码工具时,会越来越多地问以下问题:
- 供应链安全:这个工具的安装和更新渠道是否安全?是否有包签名和完整性验证?
- 平台稳定性:如果我在这个平台上构建工作流,它会不会在没有预警的情况下改变规则?
- 成本可预测性:我能否准确预测每月的使用成本?是否有硬性的消费上限?
- 数据安全:这个工具能访问我的整个代码库,我的代码是否会被用于训练?
Anthropic 在这4个维度上的表现,在2025年6月的事件后,都受到了质疑。这为竞争对手创造了窗口:
- GitHub Copilot(Microsoft/OpenAI):依托 GitHub 的企业级安全基础设施和 Microsoft 的企业销售渠道,在供应链安全和平台稳定性上有天然优势。
- Cursor(Anysphere):作为独立 IDE,其定价模式($20/月 Pro 计划,包含固定额度快速请求)比 Claude Code 的纯 API 计费更可预测。Cursor 在2025年初完成了大额融资,估值达到约 $90 亿(来源: Bloomberg),显示了市场对”开发者友好”AI 工具的巨大需求。
- Google 的 Jules 和 Gemini Code Assist:Google Cloud 的企业级 SLA 和安全合规框架(SOC 2, ISO 27001)在企业市场中是重要的信任信号。
对开发者的影响:你需要一个”AI 工具安全框架”
如果你是一个正在使用或考虑使用 AI 编码代理的开发者或工程团队负责人,2025年6月的事件应该促使你建立一个系统性的风险管理框架。以下是具体建议:
供应链安全:
- 永远从官方渠道安装 AI 工具。对于 Claude Code,确认包名为
@anthropic-ai/claude-code,并验证发布者身份。 - 使用
npm audit、Socket 或 Snyk 等工具扫描依赖链。 - 在隔离环境(如 Docker 容器或虚拟机)中运行 AI 编码代理,限制其对宿主机文件系统和网络的访问。
- 不要在环境变量中明文存储 API 密钥——使用密钥管理服务(如 AWS Secrets Manager、HashiCorp Vault)。
平台风险:
- 不要将关键工作流完全绑定在单一 AI 平台上。保持在至少2个 AI 编码工具之间切换的能力。
- 对于团队使用,优先选择提供企业级 SLA 的服务,而非消费级 API。
- 定期导出和备份你的 prompt 模板、工作流配置和项目上下文,避免被平台锁定。
成本控制:
- 在使用 Claude Code 或任何按量计费的 AI 工具前,设置硬性的月度消费上限。Anthropic 现在支持在 API 控制台中设置 spending limit。
- 监控 token 使用量。对于 Claude Code,可以在每次会话结束后检查 token 消耗统计。
- 对于成本敏感的任务,手动指定使用较便宜的模型(如 Sonnet 而非 Opus)。
对行业监管的影响:AI 工具链需要新的治理框架
最后,也是最宏观的层面——2025年6月的事件表明,现有的软件供应链安全框架和平台治理规则不足以应对 AI 代理时代的挑战。
美国政府在2021年发布的《关于改善国家网络安全的行政命令》(Executive Order 14028)推动了 SBOM(Software Bill of Materials)的采用,但 SBOM 主要针对的是静态依赖关系,无法捕捉 AI 代理在运行时动态安装或调用的组件。欧盟的《AI 法案》(AI Act)对”高风险 AI 系统”提出了透明度和安全性要求,但 AI 编码工具目前被归类为”有限风险”(limited risk),监管要求较低。
我的判断是:在未来18-24个月内,我们将看到至少一起重大的 AI 工具链安全事件——规模远超当前的 npm 仿冒包——它将迫使监管机构重新评估 AI 编码代理的风险等级。 可能的场景包括:一个被广泛使用的 AI 编码代理被发现在代码建议中系统性地引入安全漏洞(无论是由于训练数据污染还是模型幻觉),或者一个 AI 代理的 API 密钥大规模泄露导致数百万美元的未授权 API 消耗。
两个对立视角与我的判断
视角1(乐观派):”这些都是成长的烦恼。每一个新的技术平台在早期都会经历供应链安全问题(想想早期的 Docker Hub 恶意镜像)、平台治理争议(想想 Apple App Store 的早期混乱)和定价模型调整(想想 AWS 早期的账单 shock)。Anthropic 是一家负责任的公司,它会迅速修复这些问题,市场会继续增长。Claude Opus 4 在多个编码基准测试中表现领先(根据 Anthropic 官方博客,其在 SWE-bench Verified 上的得分超过 70%),技术实力是长期竞争力的根本。”
视角2(悲观派):”AI 编码代理的权限模型从根本上是不安全的。你不可能让一个 AI 拥有读写文件系统和执行 shell 命令的权限,同时保证它不会被利用为攻击向量。而 AI 平台公司的商业激励与开发者生态的健康之间存在不可调和的矛盾——平台化必然导致利益冲突。这些不是 bug,是 feature。”
我的判断:真相在两者之间,但更接近悲观派。
AI 编码代理的安全问题不是简单的”成长的烦恼”——它是架构层面的固有挑战。当你赋予一个软件代理广泛的系统权限时,你就创造了一个高价值的攻击目标。AI 代理的特殊之处在于,它的行为是概率性的而非确定性的,这使得传统的安全审计方法(如代码审查、静态分析)难以完全适用。
但我不认为这意味着 AI 编码代理会失败。更可能的结果是:市场将分化为两层——
上层:企业级 AI 编码工具,运行在受控环境中(如企业内网、专用沙箱),配备完整的审计日志、权限控制和安全监控。这个市场将由 Microsoft(GitHub Copilot Enterprise)、Google(Gemini Code Assist Enterprise)等拥有企业安全基础设施的大公司主导。
下层:面向个人开发者和小团队的 AI 编码工具,以便利性和低成本为卖点,但安全性和可预测性较低。这个市场将保持高度竞争和碎片化。
Anthropic 目前处于一个尴尬的中间地带——它的技术能力足以支撑企业级产品,但它的平台治理和产品设计成熟度还停留在消费级水平。如果 Anthropic 不能在2025年下半年迅速补齐这些短板,它可能会在 AI 编码工具市场中被挤压到一个不利的位置——技术最强,但市场份额不大。
So What:对你意味着什么
如果你是开发者:立即审查你的 AI 工具安装来源,设置 API 消费上限,并在隔离环境中运行 AI 代理。不要把所有鸡蛋放在一个 AI 平台的篮子里。
如果你是技术管理者:将 AI 工具链安全纳入你的安全审计框架。要求供应商提供 SLA、数据处理协议和明确的定价模型。评估平台锁定风险。
如果你是投资者:关注 AI 工具链安全赛道——这是一个正在快速增长但尚未被充分定价的市场。Socket、Snyk、GitGuardian 等公司正在这个领域建立壁垒。同时,重新评估纯 API 模型提供商(如 Anthropic)的平台化转型风险——从模型公司到平台公司的跨越,远比看起来困难。
如果你是 Anthropic:你正站在一个关键的十字路口。你的模型是世界级的,但你的平台治理不是。2025年6月的多重事件是一个预警,不是一场灾难——但下一次可能不会这么幸运。开发者社区的信任一旦流失,重建的成本远高于模型训练的算力成本。
2025年6月不会被记录为 AI 行业的转折点。但它应该被记录为一个信号——AI 工具链的安全和治理债务正在累积,而偿还的时刻正在逼近。
参考资料
- Anthropic Claude Code 官方文档 — Anthropic, 2025-06
- Anthropic API Pricing — Anthropic, 2025-06
- 2024 State of the Software Supply Chain Report — Sonatype, 2024-10
- Cursor raises funding at $9 billion valuation — Bloomberg, 2025-01
- Gartner Forecasts 75% of Enterprise Software Engineers Will Use AI Code Assistants by 2028 — Gartner, 2024-04
- GitGuardian State of Secrets Sprawl 2025 — GitGuardian, 2025-04
- Anthropic Raises Funding at $61.5 Billion Valuation — Bloomberg, 2025-03
- Socket npm malicious packages research — Socket, 2025-06
- Anthropic Claude 4 model family announcement — Anthropic, 2025-05
- AI package hallucination research by Bar Lanyado — Vulcan Cyber, 2024-03