DeerFlow 2.0:字节开源的超级 Agent 框架,让 AI 真正干活

DeerFlow 2.0:字节开源的超级 Agent 框架,让 AI 真正干活

作者:madprinter
日期:2026-03-24
项目地址:https://github.com/bytedance/deer-flow

项目介绍

DeerFlow(Deep Exploration and Efficient Research Flow)是字节跳动开源的一款超级 Agent 框架。2026 年 2 月 28 日,DeerFlow 2.0 正式发布后迅速登顶 GitHub Trending 榜首,目前已有近 40,000 颗星。

与传统的 AI 框架不同,DeerFlow 不仅仅是一个"聊天机器人",它是一个真正能干活的 Agent 运行环境。它拥有自己的文件系统、沙箱执行环境、长期记忆系统,可以自主规划任务并调度多个子 Agent 协同工作。

为什么 DeerFlow 值得关注?

  1. 大厂背书:字节跳动出品,经过真实业务场景验证
  2. 架构先进:基于 LangGraph 和 LangChain 构建,设计优雅
  3. 功能完整:开箱即用的文件系统、记忆系统、沙箱执行
  4. 高度可扩展:支持自定义技能、工具、MCP 服务器
  5. 多模型支持:兼容 OpenAI API 格式的所有大模型

核心功能

1. 技能系统(Skills)

DeerFlow 的核心是技能系统。每个技能是一个结构化的能力模块,包含工作流程、最佳实践和相关资源引用。

内置技能包括:

  • 🔍 深度研究(Research)
  • 📝 报告生成(Report Generation)
  • 📊 PPT 制作(Slide Creation)
  • 🌐 网页生成(Web Page)
  • 🎨 图片/视频生成(Image/Video Generation)

技能按需加载,不会一次性占用大量上下文,这对 Token 敏感的模型非常友好。

/mnt/skills/public ├── research/SKILL.md ├── report-generation/SKILL.md ├── slide-creation/SKILL.md ├── web-page/SKILL.md └── image-generation/SKILL.md 

2. 子 Agent 系统(Sub-Agents)

复杂任务很少能一次完成。DeerFlow 可以将任务分解,动态生成多个子 Agent 并行执行。

  • 每个子 Agent 有独立的作用域上下文
  • 子 Agent 可以并行执行,提高效率
  • 主 Agent 负责汇总所有结果,生成最终输出

例如:一个研究任务可以分解为十多个子 Agent,每个探索不同角度,最终汇聚成一份完整报告。

3. 沙箱执行环境(Sandbox)

DeerFlow 不只是"说说而已",它有自己的"电脑"——每个任务在独立的 Docker 容器中运行:

  • ✅ 完整的文件系统
  • ✅ Bash 命令执行
  • ✅ 代码运行能力
  • ✅ 图片查看能力
  • ✅ 会话隔离,零污染
/mnt/user-data/ ├── uploads/ # 用户上传的文件 ├── workspace/ # Agent 工作目录 └── outputs/ # 最终交付物 

4. 长期记忆(Long-Term Memory)

大多数 Agent 在对话结束后就忘记一切。DeerFlow 会记住:

  • 用户画像和偏好
  • 技术栈信息
  • 重复的工作流程
  • 历史交互经验

记忆本地存储,完全由用户控制。系统会自动去重,避免重复信息无限累积。

5. 多通道集成(IM Channels)

DeerFlow 支持多种即时通讯工具接入:

通道传输方式难度
TelegramBot API (长轮询)简单
SlackSocket Mode中等
飞书/LarkWebSocket中等

无需公网 IP,所有通道配置后即可自动启动。

6. Claude Code 集成

通过 claude-to-deerflow 技能,可以直接在 Claude Code 中与 DeerFlow 交互:

npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow 

支持的功能:

  • 发送任务并获取流式响应
  • 选择执行模式:flash/fast/standard/pro/ultra
  • 查看健康状态、模型、技能列表
  • 管理对话线程和历史
  • 上传文件进行分析

使用方法

快速开始

1. 克隆项目
git clone https://github.com/bytedance/deer-flow.git cd deer-flow 
2. 生成配置文件
make config 

这会基于模板创建本地配置文件。

3. 配置模型

编辑 config.yaml,配置至少一个模型:

models:-name: gpt-4display_name: GPT-4use: langchain_openai:ChatOpenAI model: gpt-4api_key: $OPENAI_API_KEY max_tokens:4096temperature:0.7-name: openrouter-gemini-2.5-flash display_name: Gemini 2.5 Flash (OpenRouter) use: langchain_openai:ChatOpenAI model: google/gemini-2.5-flash-preview api_key: $OPENAI_API_KEY base_url: https://openrouter.ai/api/v1 
4. 设置 API Key

推荐方式:编辑项目根目录的 .env 文件

TAVILY_API_KEY=your-tavily-api-key OPENAI_API_KEY=your-openai-api-key INFOQUEST_API_KEY=your-infoquest-api-key 
5. 启动服务

Docker 方式(推荐)

make docker-init # 拉取沙箱镜像(只需一次)make docker-start # 启动服务

本地开发方式

make check # 检查依赖makeinstall# 安装依赖make dev # 启动服务

访问:http://localhost:2026

推荐模型

DeerFlow 官方推荐使用以下模型以获得最佳体验:

  • Doubao-Seed-2.0-Code
  • DeepSeek v3.2
  • Kimi 2.5

这些模型支持:

  • 长上下文(100k+ tokens)
  • 强大的推理能力
  • 多模态输入
  • 可靠的工具调用

飞书/钉钉集成示例

config.yaml 中配置:

channels:feishu:enabled:trueapp_id: $FEISHU_APP_ID app_secret: $FEISHU_APP_SECRET slack:enabled:truebot_token: $SLACK_BOT_TOKEN app_token: $SLACK_APP_TOKEN 

.env 中设置对应的密钥即可。

技术架构

DeerFlow 2.0 是完全重写的版本,与 1.x 没有任何代码共享。核心架构:

┌─────────────────────────────────────────┐ │ Gateway (API Gateway) │ ├─────────────────────────────────────────┤ │ LangGraph Agent Server │ ├──────────────┬──────────────┬───────────┤ │ Skills │ Tools │ Memory │ ├──────────────┴──────────────┴───────────┤ │ Sandbox (Docker/K8s) │ └─────────────────────────────────────────┘ 
  • Gateway:统一 API 入口,处理认证、路由、会话管理
  • LangGraph Server:Agent 编排引擎
  • Skills/Tools:可扩展的能力模块
  • Memory:长期记忆存储
  • Sandbox:隔离执行环境

实际应用场景

DeerFlow 已经超越最初的研究工具定位,社区开发者用它实现了:

  • 📊 数据管道自动化
  • 📽️ PPT/幻灯片自动生成
  • 📈 数据看板搭建
  • 📝 内容工作流自动化
  • 🔍 深度市场调研
  • 💻 代码生成和审查

总结

DeerFlow 2.0 代表了一个重要趋势:AI Agent 正在从"聊天"走向"干活"

它不是又一个聊天机器人包装器,而是一个真正能让 AI 执行复杂任务的运行环境。通过沙箱隔离、多 Agent 协作、长期记忆等设计,DeerFlow 解决了传统 Agent 框架的几个关键痛点:

  1. 上下文限制:通过子 Agent 分解和上下文摘要
  2. 执行能力:通过沙箱提供真实的执行环境
  3. 记忆缺失:通过长期记忆系统跨会话学习
  4. 扩展困难:通过技能和 MCP 服务器轻松扩展

如果你正在构建 AI 应用,或者想让 AI 帮你完成实际工作,DeerFlow 绝对值得关注。


相关资源

  • 项目地址:https://github.com/bytedance/deer-flow
  • 官方网站:https://deerflow.tech
  • 中文文档:https://github.com/bytedance/deer-flow/blob/main/README_zh.md
  • InfoQuest 搜索工具:https://docs.byteplus.com/en/docs/InfoQuest/What_is_Info_Quest

Read more

复杂三维山地环境下小龙虾优化算法COA求解多无人机动态避障路径规划研究附MATLAB代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长毕业设计辅导、数学建模、数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。 🍎 往期回顾关注个人主页:Matlab科研工作室  👇 关注我领取海量matlab电子书和数学建模资料  🍊个人信条:格物致知,完整Matlab代码获取及仿真咨询内容私信。 🔥 内容介绍 一、引言 随着无人机技术的快速发展,多无人机协同作业在复杂环境中的应用越来越广泛,如地质勘探、森林防火、应急救援等领域。复杂三维山地环境给无人机路径规划带来了巨大挑战,需要在考虑地形复杂、障碍物众多且可能动态变化的情况下,为多架无人机规划安全、高效的飞行路径。小龙虾优化算法(COA)作为一种新兴的智能优化算法,为解决这一难题提供了新的思路。 二、复杂三维山地环境下多无人机路径规划的挑战 (一)地形复杂性 1. 三维地形建模困难:山地环境具有复杂的三维地形,包括山峰、山谷、悬崖等。准确地对这种地形进行建模需要大量的地理信息数据,并且如何将这些数据转化为适合路径规划算法处理的模型是一个难题。传统的二维地图难以描述山地的垂直信息,而

RK3588+AI算力卡替代英伟达jetson方案,大算力,支持FPGA自定义扩展

RK3588+AI算力卡替代英伟达jetson方案,大算力,支持FPGA自定义扩展

RK3588+AI算力卡替代英伟达Jetson方案的技术对比与实施路径 1. ‌硬件性能与算力配置‌ * ‌RK3588核心优势‌:采用8nm工艺,集成6TOPS NPU,支持INT4/INT8混合精度计算,搭配PCIe 3.0接口可扩展Hailo-8等AI加速卡,实现32TOPS总算力‌12。 ‌Jetson Thor对比‌:英伟达新一代平台提供2070 FP4 TFLOPS算力(约5168 TOPS),是RK3588+扩展方案的160倍,但功耗高达130W,远超RK3588的5W典型功耗‌34。 2. ‌边缘AI场景适配性‌ * ‌实时性需求‌:RK3588在1080P视频结构化分析中延迟低于50ms,满足工业质检、安防监控等场景;Jetson Thor虽支持毫秒级多模态推理,但成本过高(量产模组2999美元)‌24。 ‌能效比‌:RK3588方案能效达1.2 TOPS/W,优于Jetson Orin的4.5 TOPS/W,适合电池供电的移动机器人‌14。

从零构建天气提醒机器人:Claude Code如何重塑开发工作流

从零构建天气提醒机器人:Claude Code如何重塑开发工作流

目录 1. 引言:为何选择 Claude Code? 2. 项目目标与技术选型 3. Prompt 工程:引导 Claude Code 生成精准代码 4. 开发全流程实录 5. 调试与优化:人机协同的关键环节 6. 效率对比:传统开发 vs. Claude Code 辅助 7. 反思与展望:AI 编程的边界与开发者角色 1. 引言:为何选择 Claude Code? 作为一名全栈开发者,我长期关注 AI 编程工具的发展。2026 年初,Claude Code 凭借其对上下文的深度理解与多语言支持能力迅速成为我的主力助手。为验证其在真实项目中的效能,我决定发起一项挑战:仅依赖Claude Code,从零开发一个“

FPGA设计实例——基于FPGA的蓝牙通信实验_EGo1开发板上实现

FPGA设计实例——基于FPGA的蓝牙通信实验_EGo1开发板上实现

一、概述 本实验基于依元素科技有限公司的《蓝牙通信》实验进行改进,通过AT指令设置蓝牙模块的名称、查询蓝牙模块的地址等,然后利用EGo1开发板上的蓝牙模块与板卡进行串口通信,使用支持蓝牙4.0的手机与板卡上的蓝牙模块建立连接,并通过手机APP发送命令,控制FPGA板卡上的硬件外设。 二、实验原理 蓝牙无线技术是使用范围最广泛的全球短距离无线标准之一,EGo1开发板上板载的蓝牙模块是基于TI公司CC2541芯片的蓝牙4.0模块,具有256kb配置空间,遵循V4.0 BLE蓝牙规范。 本实验利用板卡上的蓝牙模块与外界支持蓝牙4.0标准的设备(如手机)进行交互。该蓝牙模块出厂默认配置为通过串口协议与FPGA进行通信,用户无需研究蓝牙相关协议与标准,只需要按照UART串口协议来处理发送与接收的数据即可,实验框图如图1所示。 图1 蓝牙通信实验的模块框图 本实验通过串口发送与串口接收模块来完成与蓝牙模块的数据传输,通过命令解析模块及命令响应模块来实现简单的串口命令的解析控制以及命令的执行,FPGA 在接收到蓝牙模块传输进来的串口数据后,会将相应数据以及命令响应通过蓝牙模块发送给与之