3 月 31 日,安全研究员 Chaofan Shou 在 X 平台曝出重磅消息:Anthropic 官方 npm 包中,因漏删调试文件,直接把 Claude Code 的完整源码公之于众。消息发酵期间,无数人第一反应以为是恶搞,可事实是:51.2 万行 TypeScript 代码、1900+ 源文件、40+ 功能模块,连同一堆未官宣的功能,全在网上'裸奔'了。

事件性质确认:非愚人节彩蛋
很多人第一反应怀疑是否为营销动作,但实锤显示这是真实事故:
- 官方紧急止损:Anthropic 第一时间下架泄露版本 v2.1.88、删除 npm 包中的问题文件,还对 GitHub 上的镜像仓库发起 DMCA 下架投诉。若是彩蛋,完全没必要拼命阻止传播。
- 二次翻车记录:这不是 Anthropic 第一次犯这种错!2025 年 2 月,Claude Code 就因同款 Source Map 疏忽泄露过代码;就在本次泄露前 5 天,公司还因 CMS 配置失误,曝光了 3000+ 未发布资产,连续失误坐实是管理漏洞。
- 机密内容全曝光:卧底模式、未发布模型代号、后台记忆机制……全是企业核心机密,没有一家科技公司会把底牌当礼物送出去。
Anthropic 官方也给出明确回应:'这是人为打包失误,非安全入侵,未泄露任何用户数据与凭证'。
技术原因:一个 59MB 的.map 文件
这场事故的罪魁祸首,不是黑客攻击,而是前端开发者入门级的常识——忘了删生产环境的 Source Map 文件。
简单科普:.map(Source Map)是开发调试工具,作用是把压缩混淆后的生产代码,精准映射回人类可读的原始源码,只该留在开发环境,绝对不能打进生产包。这是写在新手教程第一页的基础操作。
可 Anthropic 偏偏踩了坑:发布 Claude Code v2.1.88 版本时,直接把59.8MB 的 cli.js.map打进了公共 npm 包。这个文件里藏着两个关键数组:sources(文件路径)和 sourcesContent(完整源码),一一对应、无需反编译、无需破解,一行脚本就能批量还原所有代码。
最终泄露的'家底'堪称震撼:
- 代码规模:51.2 万行 TypeScript 代码、1906 个专属源文件;
- 核心架构:React+Ink 构建 CLI 界面,近 5 万行 QueryEngine.ts 负责推理调度,40+ 工具模块覆盖文件读写、Bash 执行、IDE 桥接;
- 关键信息:系统提示词、权限逻辑、工具调用机制、多智能体编排方案,全透明曝光。
更无奈的是,源码刚曝光就被开发者疯狂备份到 GitHub,即便 Anthropic 紧急删源,代码早已在开源社区'永久留存',再也收不回来了。

意外曝光:未发布功能全扒光
这场灾难意外变成了 Anthropic 的'被动发布会',源码里藏的未发布功能比泄露本身更受关注:
1. BUDDY 赛博宠物
原本计划预热及内测的电子宠物提前亮相。
- 18 种物种(含 Anthropic 全员宠水豚)、稀有度分级、可装扮饰品;
- 五维属性:调试能力、耐心、混沌值、智慧、毒舌。
2. KAIROS:会'做梦'的永远在线 AI
直接颠覆现有大模型'阅后即焚'的模式,代号KAIROS的常驻 Agent,主打Always-On(永远在线):
- 跨会话持久记忆,自动保存用户工作习惯、项目背景;
- 自带**Nightly Dreaming(夜间做梦)**机制:深夜自动回溯当日交互,剔除冗余信息、沉淀长期记忆,解决上下文膨胀问题;
- 支持后台订阅 GitHub Webhook,自动处理报错、执行任务,真正实现无人值守。
3. 卧底模式:无法关闭的'隐藏痕迹'
代码中藏着Undercover Mode(卧底模式):
- 检测到 Anthropic 员工操作公共 GitHub 仓库时自动激活;
- 抹除 AI 生成代码的痕迹、隐藏内部模型代号,甚至要求模型'不暴露身份';
- 最关键的是:没有强制关闭开关,引发巨大争议。
4. 多智能体调度:Coordinator 协调器
可调度并行从属 Agent,支持多机协同、任务分发,完成复杂开发任务,彰显 Anthropic 在 AI Agent 领域的野心。
行业反思:主打'安全',却栽在基础流程里
Anthropic 一直以**'安全、谨慎'**为核心标签,作为估值超 600 亿美元的 AI 独角兽,却犯了实习生都很少犯的低级错误。
更深层的问题是系统性漏洞:
- 发布流水线无校验:CI/CD 流程未过滤调试文件,人工打包也未做最终检查;
- 安全意识缺位:Source Map 泄露是前端常识,却连续两次在同一个坑摔倒;
- 快速迭代牺牲合规:AI 行业追求快速上线,却忽略了软件供应链的基础安全。
好消息是:本次泄露未波及 Claude 核心模型权重、用户对话数据、API 密钥,真正受损的是 Claude Code 的工程实现、产品规划,而非核心能力与用户隐私。
行业变局:AI Agent 门槛骤降,内卷加速
对整个 AI 行业来说,这场意外泄露,堪称**'免费的顶级教科书'**。
- 研发门槛大幅降低:全球开发者可直接参照 Claude Code 的架构设计、提示词逻辑、工具调用机制,缩短 AI Agent 的探索周期;
- 行业内卷加速:原本保密的 Agent 工程化最佳实践公开,各家厂商大概率会快速跟进迭代,AI 编码助手竞争将更激烈;
- 技术路线得到印证:Anthropic 的持久记忆、多智能体调度、后台守护等设计,成为 AI Agent 的主流方向参考。
结语:基础流程做扎实,再谈颠覆创新
愚人节的玩笑会过期,但这次泄露的教训不会。
Anthropic 用一场代价高昂的失误,给所有科技公司敲了警钟:AI 技术再前沿、模型再强大,也不能丢了最基础的工程规范;安全从不是口号,而是藏在每一次打包、每一次发布、每一个文件检查的细节里。
这场'裸奔'式泄露,既让我们看到了 Anthropic 在 AGI 领域的浪漫与野心,也暴露了巨头在快速扩张中的管理短板。
对开发者而言,这是难得的学习机会;对行业而言,这是一次强制的'透明化';对所有技术团队而言,这是一句最直白的提醒:先把基础流程做扎实,再谈颠覆创新。
毕竟,再厉害的 AI,也救不了一个忘了删 .map 文件的发布流程。


