DeerFlow 2.0 开源:打造真正的超级智能体架构
近日,一款来自字节跳动的开源项目迅速登上热门榜单。它叫 DeerFlow,一个超级智能体架构,短时间内就获得了大量关注。
初次接触时,难免会有疑问——又一个 AI Agent 框架?但深入了解后,发现这确实有些不同。
从研究工具到超级智能体
DeerFlow 的故事挺有意思。最开始,它只是个深度研究框架。但开发者们把它用出了各种花样:构建数据管道、生成幻灯片、搭建仪表盘、自动化内容工作流……这些都是团队最初没想到的。
团队这才意识到:DeerFlow 不只是个研究工具,它是一个架构——一个让智能体真正能够完成工作的运行环境。于是他们从零重写,推出了 DeerFlow 2.0。
什么是 DeerFlow?
通俗地说,DeerFlow 是个超级智能体套件,它可以让 AI 帮你做几乎所有事情。它通过编排子智能体、记忆系统和沙盒环境,来处理那些可能需要几分钟到几小时才能完成的复杂任务。
基于 LangGraph 和 LangChain 构建,DeerFlow 开箱即用地提供了智能体所需的一切:文件系统、记忆、技能、沙盒执行环境,以及规划和生成子智能体来完成复杂多步任务的能力。
核心特性
技能系统
这是 DeerFlow 最核心的特点。技能是个结构化的能力模块——一个 Markdown 文件,定义了工作流程、最佳实践和参考资源。
DeerFlow 内置了研究、报告生成、幻灯片创建、网页开发、图片视频生成等技能。但厉害的地方在于可扩展性:你可以添加自己的技能,替换内置的,或者组合成复合工作流。
技能是按需加载的——只有当任务需要时才加载,不会一次性全部加载。这保持了一个精简的上下文窗口,让 DeerFlow 即使对 token 敏感的模型也能良好工作。
子智能体
复杂的任务很少能一次完成。DeerFlow 会把它们分解。主导智能体可以即时生成子智能体——每个都有自己的上下文、工具和终止条件。子智能体尽可能并行运行,报告结构化结果,然后主导智能体将所有内容综合成连贯的输出。
一个研究任务可能会派生出十几个子智能体,每个探索不同的角度,然后汇聚成单一报告——或者网站——或者带有生成视觉效果的幻灯片。一个套件,多只手。
沙盒与文件系统
DeerFlow 不只是谈论做事。它有自己的电脑。每个任务都在一个独立的 Docker 容器中运行,拥有完整的文件系统——技能、工作空间、上传、输出。智能体可以读取、写入和编辑文件,执行 bash 命令和代码,查看图像。全部沙盒化,全部可审计,会话之间零污染。这就是带有工具访问权限的聊天机器人和拥有实际执行环境的智能体之间的区别。
上下文工程
DeerFlow 对上下文管理很激进——总结已完成的子任务,将中间结果卸载到文件系统,压缩不再立即相关的内容。这让它能够在长、多步骤的任务中保持敏锐,而不会撑爆上下文窗口。
长期记忆
大多数智能体在对话结束的那一刻就会忘记一切。DeerFlow 记住。在会话之间,DeerFlow 会建立关于你的档案、偏好和积累知识的持久记忆。你用得越多,它就越了解你——你的写作风格、你的技术栈、你的重复工作流程。记忆存储在本地,完全由你控制。
技术架构
DeerFlow 2.0 是从零重写的,与 v1 没有共享任何代码。如果你在寻找原始的深度研究框架,它仍在 1.x 分支上维护。
基于 LangGraph 和 LangChain,DeerFlow 支持多种沙盒执行模式:
- 本地执行(直接在主机上运行沙盒代码)
- Docker 执行(在独立的 Docker 容器中运行)
- 带 Kubernetes 的 Docker 执行(通过 provisioner 服务在 Kubernetes pod 中运行)
快速开始
推荐使用 Docker 方式:
# 克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
# 生成配置文件
make config
# 编辑 config.yaml 配置你的模型
# 至少配置一个模型,例如 GPT-4
# 启动服务
make docker-init
make docker-start


