顶级AI公司Anthropic出现爆炸级事故!!!震惊!Claude Code 源码意外泄露:Anthropic “被动开源”
🔥🔥🔥震惊!Claude Code 源码意外泄露:Anthropic “被动开源”

昨天(2026年3月31日),AI 圈发生了一件堪称“年度大戏”的事件:Anthropic 旗下的热门 AI 编程工具 Claude Code 的完整源代码意外泄露了!
传送门: https://github.com/instructkr/claude-code
这不是黑客入侵,也不是安全漏洞被利用,而是一次低级却致命的发布配置失误。Anthropic 在推送 npm 包 @anthropic-ai/claude-code 版本 2.1.88 时,不小心把一个 59.8MB 的 source map 文件(cli.js.map) 打包了进去。这个调试文件直接指向了云存储中的完整 TypeScript 源码压缩包。

结果?接近 1900 个文件、超过 51.2 万行代码 被完整暴露。安全研究员 Chaofan Shou (@Fried_rice) 第一时间发现并公开了链接,随后代码被迅速镜像到 GitHub,短时间内 fork 数破万。Anthropic 虽快速修复并移除,但“木已成舟”,代码已在互联网上广泛传播。
事件经过:一个 source map 引发的“开源”
- 起因:Anthropic 发布 Claude Code CLI 的新版本时,构建流程中未正确排除 source map 文件。该 map 文件不仅包含符号映射,还保留了完整的
sourcesContent,可以直接还原原始 TypeScript 源码。 - 发现:用户在 npm registry 下载包后,发现 map 文件指向 Anthropic 的 Cloudflare R2 存储桶中的
src.zip。 - 传播:代码被下载、解压、上传至 GitHub(如
instructkr/claude-code等仓库)。尽管 Anthropic 后续发出 DMCA,但去中心化的镜像和 fork 已让代码“永存”。 - 官方回应:Anthropic 发言人确认这是“人为失误导致的发布打包问题”,未涉及任何客户数据、凭证或模型权重,仅为客户端 orchestration 层代码。并非安全入侵,而是配置错误。
值得一提的是,这已经是 Claude Code 第二次 类似泄露。上一次发生在 2025 年初的早期版本中。
泄露了什么?不是模型,而是“如何构建顶级 AI Agent”
重要澄清:泄露的不是 Claude 核心大模型权重或训练数据,而是 Claude Code 这个终端 AI 编码代理工具的完整客户端源码。
从公开分析看,代码揭示了:
- 架构设计:使用 TypeScript + Bun + React/Ink 构建的终端应用,高度模块化,包含多代理协作、工具调用、安全审查等生产级实现。
- 系统提示词工程:Anthropic 内部如何拼接 prompt、构建 agent 工作流(据说有四层安全审查机制)。
- 记忆系统:只记录用户偏好,而非完整代码上下文的智能记忆设计。
- 未发布功能:
- “Kairos”:自主 daemon 模式,支持后台会话和内存整合。
- Tamagotchi 风格的“宠物”系统(代码中藏了一个类似虚拟宠物的模块)。
- “Undercover Mode”等隐藏特性。
- 更多 agentic 能力(如自动执行任务、项目理解等)。
这些内容让竞争对手(包括 Cursor 等)和开源社区能直接“照着画”构建类似高代理性编码工具。许多开发者已经在用泄露代码 reverse engineering,并推出 Python 重写版(如 “claw-code”)和 Rust 移植。
其核心架构展示了Anthropic对「AI工程师」的终极理解:
万能工具箱(Tools):包含40多个独立模块,不仅能读写文件、执行Bash命令,甚至内置了LSP协议集成和子代理(Sub-agent)生成能力。
超级大脑(QueryEngine.ts):一个长达4.6万行的代码巨兽,负责处理所有的推理逻辑、Token计数以及复杂的「思维链」循环。
协同系统:泄露代码中出现了coordinator(多智能体协调器)和bridge(连接 VS Code/JetBrains 的桥梁),预示着Claude已经具备了多机协同和深度嵌入IDE的实战能力。
「隐藏功能」曝光
还有人从这次泄露代码中,汇总了更多隐藏功能——最令人意外的发现是,一个代号为Kairos的未发布模式。

这不仅仅是一个插件,而是一个具备「持久生命」的自主守护进程(autonomous daemon)。
它支持后台会话和记忆整合功能,意味着Claude可以化身为一个「永不离线」的 AI 智能体,在后台默默处理任务并不断加深对项目的理解。
另一个「Buddy System」,则展现了程序员的「摸鱼」本色:代码中竟然内置了一个完整的电子宠物系统。

此外,泄露的代码还揭示了一些具有争议的「特殊待遇」。
比如「Undercover Mode」(卧底模式),当Anthropic员工在公共仓库操作时,该模式会自动激活并强行抹除提交记录中的所有 AI 痕迹,且无法手动关闭。
针对提效方面,还有「Coordinator Mode」(协调员模式),能让Claude调度并行工作的从属智能体;
以及Auto Mode,这是一种能自动审批工具权限的AI分类器,旨在彻底消灭繁琐的提示词确认环节。