字节跳动将 DeerFlow 彻底重写,发布 2.0 版本,并在发布当天登上 GitHub Trending 第一名。这不是一次功能迭代,而是一次从'深度研究框架'到'Super Agent 运行时基础设施'的彻底蜕变。
背景:从 v1 到 v2,发生了什么?
DeerFlow(Deep Exploration and Efficient Research Flow)最初是一个专注于深度研究的 AI 框架——给它一个问题,它会搜索、整理、输出报告。
但社区的玩法远超出了设计者的想象。开发者们拿它搭数据流水线、生成演示文稿、自动化内容生产、快速起 dashboard……这让团队意识到,DeerFlow 从一开始就不只是'研究工具',它更像一个让 Agent 真正把事情做完的运行环境。
核心变化
DeerFlow 2.0 与 v1 没有共用任何代码,是一次彻底重写。旧版(Deep Research 框架)依然保留在 1.x 分支;主开发线已全面转向 2.0。
它到底是什么?
官方给出的定位是 Super Agent Harness(超级 Agent 调度框架)。这个词听起来抽象,拆开来理解其实很清晰。
现在的 DeerFlow 2.0 不再仅仅是一个跑研究报告的工具,它进化成了一个 Harness(挂架/系统平台)。
- 什么是 Harness? 想象一下,大模型(如 DeepSeek, Kimi, Doubao)是发动机,而 DeerFlow 就是那台复杂的 F1 赛车底盘。它把 Sub-agents(子智能体)、Memory(记忆)、Sandbox(沙箱) 和 Skills(技能) 完美地挂载在一起。
开发者视角: 以往我们要写一个 Agent,需要处理繁琐的上下文管理、文件读写权限、多任务并行。DeerFlow 2.0 直接把这些基础设施'标准化'了。
五大核心特性深度解析
① Skills — Agent 能力的'乐高积木'
Skills 是 DeerFlow 能完成几乎任何事情的秘密武器。一个标准 Skill 通常就是一个 Markdown 文件,定义了工作流、最佳实践和参考资源。DeerFlow 内置了研究、报告生成、演示文稿制作、网页生成、图像/视频生成等场景的 Skill。
关键设计是按需渐进加载:不会一次性把所有 Skill 塞进上下文,只有任务确实需要时才加载,有效控制 Token 消耗。
# Claude Code 深度集成:通过 claude-to-deerflow skill,你可以直接在 Claude Code 终端里和运行中的 DeerFlow 实例交互
npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow
② Sub-Agents — 并行执行复杂任务
传统 Agent 对于复杂任务的处理方式是'一条线走到底',DeerFlow 不同:Lead Agent 会先拆解任务,然后动态拉起多个 Sub-Agent,条件允许时并行运行,最后汇总成完整输出。
一个典型的研究任务可以被拆成十几个 Sub-Agent,分别探索不同方向,最终合并成报告、网站或带生成视觉内容的演示文稿。这也是 DeerFlow 能处理'从几分钟到几小时'任务的原因。
③ Sandbox 文件系统 — Agent 有了自己的'电脑'
这是 DeerFlow 和'带工具的聊天机器人'之间最根本的差别:Agent 有一台真正的'电脑'。
每个任务运行在隔离的 Docker 容器里,内有完整文件系统:
/mnt/user-data/
Agent 可以读写编辑文件、执行 Bash 命令和代码、查看图片,全程在 Sandbox 内完成,可审计、隔离,不同 session 之间互不污染。
④ Context Engineering — 长任务不'忘事'
DeerFlow 在上下文管理上做了两件事:
- Sub-Agent 上下文隔离:每个 Sub-Agent 只看到自己的上下文,不会被主 Agent 或其他 Sub-Agent 的信息干扰,保持专注。
- 摘要压缩:在单个 session 内,主动总结已完成的子任务、把中间结果转存到文件系统、压缩暂时不重要的信息,在长链路任务里也能保持聚焦,不会轻易打爆上下文窗口。
⑤ 长期记忆 — 越用越了解你
大多数 Agent 结束对话后一切归零,DeerFlow 2.0 跨 session 会逐步积累关于你的持久记忆:个人偏好、知识背景、写作风格、技术栈、重复出现的工作流。记忆保存在本地,控制权始终在你手里。
多端接入:不只是终端工具
DeerFlow 2.0 支持通过 IM 应用直接下发任务,无需公网 IP:
| 渠道 | 传输方式 | 上手难度 |
|---|---|---|
| Telegram Bot API | Long-polling | 简单 |
| Slack | Socket Mode | 中等 |
| 飞书 / Lark | WebSocket | 中等 |
连接后,你可以直接在聊天窗口里使用 /new、/models、/memory 等命令和 DeerFlow 交互,普通消息则作为自然语言任务处理。
快速上手:10 分钟跑起来
推荐使用 Docker 方式,最省心:
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
make config # 生成本地配置文件
编辑 CONFIG.YAML 配置模型:
models:
- name: gpt-4
display_name: GPT-4
use: langchain_openai:ChatOpenAI
model: gpt-4
api_key: $OPENAI_API_KEY
max_tokens: 4096
temperature: 0.7
Docker 启动(推荐):
make docker-init # 首次拉取 sandbox 镜像
make docker-start # 启动服务
# 访问 http://localhost:2026
推荐使用的模型
DeerFlow 不绑定特定模型,只要实现了 OpenAI 兼容 API 即可接入。官方推荐以下几款表现较好的模型:
| 模型 | 特点 | 适用场景 |
|---|---|---|
| Doubao-Seed-2.0-Code | 字节自研,代码能力强 | 编程类任务 |
| DeepSeek v3.2 | 推理能力强,长上下文 | 深度研究、复杂拆解 |
| Kimi 2.5 | 长上下文、多模态 | 文档分析、多模态任务 |
优先考虑具备以下能力的模型:100k+ tokens 长上下文窗口、强推理能力、稳定的 Tool Use 支持,以及多模态输入理解。
Python SDK 内嵌使用
不想启动完整 HTTP 服务?DeerFlow 也可以作为 Python 库直接使用:
from deerflow.client import DeerFlowClient
client = DeerFlowClient()
# 普通对话
response = client.chat("帮我分析这篇论文", thread_id="my-thread")
# 流式输出
for event in client.stream("最新的 AI Agent 趋势"):
if event.type == "messages-tuple" and event.data.get("type") == "ai":
print(event["data"]["content"])
# 管理能力
models = client.list_models()
skills = client.list_skills()
client.upload_files("thread-1", ["./report.pdf"])
DeerFlow 具备系统指令执行、文件读写等高权限能力,默认仅建议在本地可信环境(127.0.0.1)部署。若需跨设备访问,务必配置 IP 白名单、前置身份验证(Nginx 反向代理)或网络隔离(VLAN)等安全措施。
总结:Super Agent 时代的基础设施
DeerFlow 2.0 真正有趣的地方,不在于它能做什么——而在于它如何把'做事'这件事本身系统化了。
大多数 Agent 项目解决的是'用 LLM 完成任务'的问题,而 DeerFlow 解决的是更底层的问题:如何给 Agent 一个真实可靠的运行环境,让它有文件系统、有记忆、有工具、有并行执行能力,最终真正把复杂的、需要小时级才能完成的任务落地。
这是从 ChatBot 到 Agent 的本质跃迁,而 DeerFlow 2.0,是目前开源社区里走得最彻底的那个。


