DeerFlow 2.0开源

DeerFlow 2.0开源

目录

从研究工具到超级智能体

什么是 DeerFlow?

核心特性

技能系统

子智能体

沙盒与文件系统

上下文工程

长期记忆

技术架构

快速开始

推荐模型

应用场景

项目现状

总结


2026 年 2 月 28 日,一款来自字节跳动的开源项目登顶 GitHub Trending 榜首。

它叫 DeerFlow,一个超级智能体架构,短时间就拿了 2.2 万 Star。

说实话,刚看到这个项目的时候,我还有些疑惑——又一个 AI Agent 框架?但深入了解后,我发现这玩意儿确实不一样。

从研究工具到超级智能体

DeerFlow 的故事挺有意思。

最开始,它只是个深度研究框架。但开发者们把它用出了各种花样:构建数据管道、生成幻灯片、搭建仪表盘、自动化内容工作流……这些都是团队最初没想到的。

团队这才意识到:DeerFlow 不只是个研究工具,它是一个架构——一个让智能体真正能够完成工作的运行环境。

于是他们从零重写,推出了 DeerFlow 2.0。

什么是 DeerFlow?

通俗地说,DeerFlow 是个超级智能体套件,它可以让 AI 帮你做几乎所有事情。

它通过编排子智能体、记忆系统和沙盒环境,来处理那些可能需要几分钟到几小时才能完成的复杂任务。

基于 LangGraph 和 LangChain 构建,DeerFlow 开箱即用地提供了智能体所需的一切:文件系统、记忆、技能、沙盒执行环境,以及规划和生成子智能体来完成复杂多步任务的能力。

核心特性

技能系统

这是 DeerFlow 最核心的特点。

技能是个结构化的能力模块——一个 Markdown 文件,定义了工作流程、最佳实践和参考资源。

DeerFlow 内置了研究、报告生成、幻灯片创建、网页开发、图片视频生成等技能。但厉害的地方在于可扩展性:你可以添加自己的技能,替换内置的,或者组合成复合工作流。

技能是按需加载的——只有当任务需要时才加载,不会一次性全部加载。这保持了一个精简的上下文窗口,让 DeerFlow 即使对 token 敏感的模型也能良好工作。

子智能体

复杂的任务很少能一次完成。DeerFlow 会把它们分解。

主导智能体可以即时生成子智能体——每个都有自己的上下文、工具和终止条件。子智能体尽可能并行运行,报告结构化结果,然后主导智能体将所有内容综合成连贯的输出。

一个研究任务可能会派生出十几个子智能体,每个探索不同的角度,然后汇聚成单一报告——或者网站——或者带有生成视觉效果的幻灯片。

一个套件,多只手。

沙盒与文件系统

DeerFlow 不只是谈论做事。它有自己的电脑。

每个任务都在一个独立的 Docker 容器中运行,拥有完整的文件系统——技能、工作空间、上传、输出。智能体可以读取、写入和编辑文件,执行 bash 命令和代码,查看图像。全部沙盒化,全部可审计,会话之间零污染。

这就是带有工具访问权限的聊天机器人和拥有实际执行环境的智能体之间的区别。

上下文工程

DeerFlow 对上下文管理很激进——总结已完成的子任务,将中间结果卸载到文件系统,压缩不再立即相关的内容。这让它能够在长、多步骤的任务中保持敏锐,而不会撑爆上下文窗口。

长期记忆

大多数智能体在对话结束的那一刻就会忘记一切。DeerFlow 记住。

在会话之间,DeerFlow 会建立关于你的档案、偏好和积累知识的持久记忆。你用得越多,它就越了解你——你的写作风格、你的技术栈、你的重复工作流程。记忆存储在本地,完全由你控制。

技术架构

DeerFlow 2.0 是从零重写的,与 v1 没有共享任何代码。如果你在寻找原始的深度研究框架,它仍在 1.x 分支上维护。

基于 LangGraph 和 LangChain,DeerFlow 支持多种沙盒执行模式:

  • • 本地执行(直接在主机上运行沙盒代码)
  • • Docker 执行(在独立的 Docker 容器中运行)
  • • 带 Kubernetes 的 Docker 执行(通过 provisioner 服务在 Kubernetes pod 中运行)

快速开始

推荐使用 Docker 方式:

# 克隆仓库 git clone https://github.com/bytedance/deer-flow.git cd deer-flow # 生成配置文件 make config # 编辑 config.yaml 配置你的模型 # 至少配置一个模型,例如 GPT-4 # 启动服务 make docker-init    # 拉取沙盒镜像(只需一次) make docker-start   # 启动服务 # 访问 http://localhost:2026

也支持本地开发模式:

make check  # 检查前置条件 make dev    # 启动开发服务

推荐模型

DeerFlow 是模型无关的——适用于任何实现 OpenAI 兼容 API 的 LLM。但它在支持以下功能的模型上表现最佳:

  • • 长上下文窗口(100k+ tokens)用于深度研究和多步骤任务
  • • 推理能力用于自适应规划和复杂分解
  • • 多模态输入用于图像理解和视频理解
  • • 强大的工具使用用于可靠的函数调用和结构化输出

应用场景

深度研究:派发多个子智能体并行研究不同角度,然后综合成完整报告。

内容创作:从研究到报告、幻灯片、网页,一站式完成。

数据管道:自动化数据处理、分析和可视化流程。

工作流自动化:将重复性工作交给智能体处理。

项目现状

DeerFlow 采用 MIT 许可证,可以自由使用和修改。项目很活跃,欢迎社区贡献。

核心团队来自字节跳动,主要贡献者包括 Daniel Walnut 和 Henry Li。

总结

DeerFlow 的出现,标志着 AI Agent 领域迈出了重要一步。

它不只是个框架,而是一个完整的智能体运行环境——一个让 AI 真正能够"做事"的平台。

从研究工具到超级智能体架构,DeerFlow 的进化反映了一个重要趋势:我们需要的不是更会聊天的 AI,而是更能干活的 AI。

如果你也在寻找一个真正能帮你完成复杂任务的 AI 智能体,DeerFlow 值得一试。

GitHub 项目地址:https://github.com/bytedance/deer-flow

今天的分享到此结束,感谢大家抽空阅读,我们下期再见!

Read more

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践 * 0. 前言 * 1. 基于扩散模型的文本生成图像 * 2. 将文本输入编码为嵌入向量 * 3. 条件 UNet 模型中的文本数据融合机制 * 4. 使用 Stable Diffusion 模型生成图像 * 相关链接 0. 前言 在本节中,我们将为扩散模型添加文本控制能力。学习如何通过文字描述来引导图像生成过程,实现从"纯噪声+文本"生成图像,而不仅是从纯噪声生成。 1. 基于扩散模型的文本生成图像 在扩散模型的 UNet 模型训练流程中,我们仅训练模型从含噪图像中预测噪声。为实现文生图功能,需使用以下架构,将文本作为额外输入注入 UNet 模型: 这样的 UNet 模型称为条件 UNet 模型 ,或者更精确地说,是文本条件 UNet

By Ne0inhk
什么是Agentic AI?Agentic AI 与传统 AIGC 有什么区别?

什么是Agentic AI?Agentic AI 与传统 AIGC 有什么区别?

什么是 Agentic AI?Agentic AI 与传统 AIGC 有什么区别? 1. 引言 近年来,人工智能(AI)技术飞速发展,其中以生成式 AI(AIGC,Artificial Intelligence Generated Content)和 Agentic AI(智能代理 AI)最为热门。AIGC 通过深度学习模型生成文本、图像、视频等内容,而 Agentic AI 则更进一步,能够自主感知、决策并执行任务。那么,Agentic AI 究竟是什么?它与传统的 AIGC 有何不同?在本文中,我们将深入探讨 Agentic AI 的概念、技术原理、

By Ne0inhk
AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

提到提示词注入(Prompt Injection),大家的第一反应往往是精心构造的文本越狱指令。 而在图生图任务中,输入图像在本质上扮演了视觉提示词的角色,与文本指令共同指导生成模型。 基于这一视角,本文展示针对视觉提示词的注入攻击:通过PGD对抗攻击算法对输入图像进行像素级微调,使其生成的违规图像能够绕过开源大模型的NSFW安全检测机制。 临近毕业,感觉市场对提示词注入比较感兴趣,因本人读博期间一直研究对抗攻击算法,所以决定尝试用对抗攻击的思路完成提示词注入攻击,误导开源模型生成违规图像。 完整代码链接:https://github.com/YujiangLi0v0/Injection_Attack_Inpainting.git 目录 * 一、 NSFW防线:开源模型的安全过滤机制 * 二、 攻击场景定义 (Threat Model) * 三、 环境搭建 * 四、 核心攻击流程详解 * 4.1. 固定随机因子 * 4.2 数据预处理 * 4.3. 攻击部分 * 4.3.1 重写扩散模型推理过程

By Ne0inhk
在昇腾 NPU 上跑 Llama 大模型:从 “踩坑到通关” 的全程实战记

在昇腾 NPU 上跑 Llama 大模型:从 “踩坑到通关” 的全程实战记

在昇腾 NPU 上跑 Llama 大模型:从 “踩坑到通关” 的搞笑实战记 本文分享了在昇腾 NPU 上部署测试 Llama-2-7B 大模型的全过程。提供踩坑经验。作者因其他硬件价格高、服务器昂贵,选择昇腾 NPU,其自主可控的达芬奇架构、完善的开源生态及 GitCode 免费测试资源是主要吸引力。文中详细介绍了 GitCode 上创建昇腾 Notebook 实例的关键配置、环境验证方法,以及安装 transformers 库、下载部署模型的步骤,还记录了遇到的 “torch.npu 找不到”“模型下载需权限” 等四个常见问题及解决方案。通过测试英文生成、中文对话、代码生成三种场景,得出 16-17 tokens/s 的吞吐量,虽低于预期但性能稳定,并给出使用 MindSpeed-LLM 框架、

By Ne0inhk