DeerFlow 2.0 开源发布
近期,一款名为 DeerFlow 的开源项目引起了广泛关注。它不再仅仅是一个深度研究框架,而是进化为一个完整的超级智能体架构。
什么是 DeerFlow?
DeerFlow 本质上是一个超级智能体套件。它通过编排子智能体、记忆系统和沙盒环境,处理那些需要几分钟甚至几小时才能完成的复杂任务。
基于 LangGraph 和 LangChain 构建,DeerFlow 开箱即用地提供了智能体所需的一切核心组件:文件系统、记忆管理、技能系统、沙盒执行环境,以及规划和生成子智能体来完成复杂多步任务的能力。
核心特性
技能系统
技能是 DeerFlow 最核心的特点之一。它是一个结构化的能力模块——通常表现为一个 Markdown 文件,定义了工作流程、最佳实践和参考资源。
DeerFlow 内置了研究、报告生成、幻灯片创建、网页开发、图片视频生成等技能。其强大之处在于可扩展性:你可以添加自己的技能,替换内置的,或者组合成复合工作流。
技能采用按需加载机制——只有当任务需要时才加载,不会一次性全部加载。这有效保持了精简的上下文窗口,让 DeerFlow 即使对 token 敏感的模型也能良好工作。
子智能体
复杂的任务很少能一次完成。DeerFlow 会将它们分解。
主导智能体可以即时生成子智能体——每个都有自己的上下文、工具和终止条件。子智能体尽可能并行运行,报告结构化结果,然后主导智能体将所有内容综合成连贯的输出。
例如,一个研究任务可能会派生出十几个子智能体,每个探索不同的角度,最后汇聚成单一报告、网站或带有生成视觉效果的幻灯片。
沙盒与文件系统
DeerFlow 不只是谈论做事,它有自己的'电脑'。
每个任务都在一个独立的 Docker 容器中运行,拥有完整的文件系统(包括技能、工作空间、上传、输出)。智能体可以读取、写入和编辑文件,执行 bash 命令和代码,查看图像。全部沙盒化,全部可审计,会话之间零污染。
这就是带有工具访问权限的聊天机器人和拥有实际执行环境的智能体之间的区别。
上下文工程
DeerFlow 对上下文管理非常激进——总结已完成的子任务,将中间结果卸载到文件系统,压缩不再立即相关的内容。这让它能够在长、多步骤的任务中保持敏锐,而不会撑爆上下文窗口。
长期记忆
大多数智能体在对话结束的那一刻就会忘记一切,但 DeerFlow 记住了。
在会话之间,DeerFlow 会建立关于你的档案、偏好和积累知识的持久记忆。你用得越多,它就越了解你——你的写作风格、你的技术栈、你的重复工作流程。记忆存储在本地,完全由你控制。
技术架构
DeerFlow 2.0 是从零重写的,与 v1 没有共享任何代码。如果你在寻找原始的深度研究框架,它仍在 1.x 分支上维护。
基于 LangGraph 和 LangChain,DeerFlow 支持多种沙盒执行模式:
- 本地执行:直接在主机上运行沙盒代码
- Docker 执行:在独立的 Docker 容器中运行
- Kubernetes 执行:通过 provisioner 服务在 Kubernetes pod 中运行
快速开始
推荐使用 Docker 方式部署:
# 克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
# 生成配置文件
make config
# 编辑 config.yaml 配置你的模型
# 至少配置一个模型,例如 GPT-4
# 启动服务
make docker-init # 拉取沙盒镜像(只需一次)
make docker-start


