DeerFlow 是一个超级智能体架构,近期推出了 2.0 版本。它从最初的研究工具演进为通用的智能体运行环境,旨在让 AI 真正具备处理复杂任务的能力。
核心特性
技能系统
技能是 DeerFlow 的核心模块,以 Markdown 文件形式定义工作流程、最佳实践和参考资源。内置了研究、报告生成、幻灯片创建、网页开发等技能,同时也支持自定义扩展。技能采用按需加载机制,仅在任务需要时载入,有效保持上下文窗口精简,适配对 Token 敏感的模型。
子智能体协作
复杂任务通常无法单步完成。DeerFlow 的主控智能体会将任务分解,即时生成拥有独立上下文、工具和终止条件的子智能体。这些子智能体并行执行并返回结构化结果,最终由主控智能体汇总输出。例如一个深度研究任务可派生出多个子智能体探索不同维度,最后汇聚成单一报告或可视化内容。
沙盒与文件系统
每个任务都在独立的 Docker 容器中运行,配备完整的文件系统(包含技能、工作空间、上传及输出目录)。智能体可读写文件、执行 Bash 命令和代码、查看图像。这种沙盒化设计确保了会话间零污染,且所有操作均可审计,这是普通聊天机器人与实际执行环境智能体的本质区别。
上下文工程与长期记忆
DeerFlow 采用激进的上下文管理策略:总结已完成子任务、将中间结果卸载至文件系统、压缩非关键内容,从而在长流程任务中保持敏锐。此外,它支持跨会话的长期记忆,建立用户档案、偏好及技术栈记录,记忆存储于本地,完全由用户掌控。
技术架构
DeerFlow 2.0 基于 LangGraph 和 LangChain 从零重写,不再兼容 v1 版本的代码。它支持多种沙盒执行模式:
- 本地执行:直接在主机上运行沙盒代码
- Docker 执行:在独立容器中运行
- Kubernetes 执行:通过 Provisioner 服务在 K8s Pod 中运行
项目采用 MIT 许可证,欢迎社区贡献。
快速开始
推荐使用 Docker 方式部署:
# 克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
# 生成配置文件
make config
# 编辑 config.yaml 配置你的模型
# 至少配置一个模型,例如 GPT-4
# 启动服务
make docker-init # 拉取沙盒镜像(只需一次)
make docker-start # 启动服务
# 访问 http://localhost:2026
也支持本地开发模式:
make check # 检查前置条件
make dev # 启动开发服务
推荐模型
DeerFlow 是模型无关的,适用于任何实现 OpenAI 兼容 API 的 LLM。但在以下能力的模型上表现更佳:
- 长上下文窗口(100k+ tokens)用于深度研究和多步骤任务
- 推理能力用于自适应规划和复杂分解
- 多模态输入用于图像和视频理解
- 强大的工具使用用于可靠的函数调用和结构化输出
应用场景
- 深度研究:派发多个子智能体并行研究不同角度,综合成完整报告


