字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

打开 deerflow 的官网,瞬间被首页的这段文字震撼到了,do anything with deerflow。让 agent 做任何事情,这让我同时想到了 openclaw 刚上线时场景。

图片

字节跳动将 DeerFlow 彻底重写,发布 2.0 版本,并在发布当天登上 GitHub Trending 第一名。这不是一次功能迭代,而是一次从"深度研究框架"到"Super Agent 运行时基础设施"的彻底蜕变。

背景:从 v1 到 v2,发生了什么?

DeerFlow(Deep Exploration and Efficient Research Flow)最初是一个专注于深度研究的 AI 框架——给它一个问题,它会搜索、整理、输出报告。

但社区的玩法远超出了设计者的想象。开发者们拿它搭数据流水线、生成演示文稿、自动化内容生产、快速起 dashboard……这让团队意识到,DeerFlow 从一开始就不只是"研究工具",它更像一个让 Agent 真正把事情做完的运行环境。

图片

核心变化

DeerFlow 2.0 与 v1 没有共用任何代码,是一次彻底重写。旧版(Deep Research 框架)依然保留在 1.x 分支;主开发线已全面转向 2.0。

它到底是什么?

官方给出的定位是 Super Agent Harness(超级 Agent 调度框架)。这个词听起来抽象,拆开来理解其实很清晰。

图片

现在的 DeerFlow 2.0 不再仅仅是一个跑研究报告的工具,它进化成了一个 Harness(挂架/系统平台)

  • 什么是 Harness? 想象一下,大模型(如 DeepSeek, Kimi, Doubao)是发动机,而 DeerFlow 就是那台复杂的 F1 赛车底盘。它把 Sub-agents(子智能体)Memory(记忆)Sandbox(沙箱) 和 Skills(技能) 完美地挂载在一起。

开发者视角: 以往我们要写一个 Agent,需要处理繁琐的上下文管理、文件读写权限、多任务并行。DeerFlow 2.0 直接把这些基础设施“标准化”了。

图片

五大核心特性深度解析

① Skills — Agent 能力的"乐高积木"

Skills 是 DeerFlow 能完成几乎任何事情的秘密武器。一个标准 Skill 通常就是一个 Markdown 文件,定义了工作流、最佳实践和参考资源。DeerFlow 内置了研究、报告生成、演示文稿制作、网页生成、图像/视频生成等场景的 Skill。

关键设计是按需渐进加载:不会一次性把所有 Skill 塞进上下文,只有任务确实需要时才加载,有效控制 Token 消耗。

Claude Code 深度集成:通过 claude-to-deerflow skill, 你可以直接在 Claude Code 终端里和运行中的 DeerFlow  实例交互——发送研究任务、查看状态、管理 threads,全程不用离开终端。 安装 CLAUDE CODE 集成 SKILL npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow 

    图片

    ② Sub-Agents — 并行执行复杂任务

    传统 Agent 对于复杂任务的处理方式是"一条线走到底",DeerFlow 不同:Lead Agent 会先拆解任务,然后动态拉起多个 Sub-Agent,条件允许时并行运行,最后汇总成完整输出。

    一个典型的研究任务可以被拆成十几个 Sub-Agent,分别探索不同方向,最终合并成报告、网站或带生成视觉内容的演示文稿。这也是 DeerFlow 能处理"从几分钟到几小时"任务的原因。

    ③ Sandbox 文件系统 — Agent 有了自己的"电脑"

    这是 DeerFlow 和"带工具的聊天机器人"之间最根本的差别:Agent 有一台真正的"电脑"。

    每个任务运行在隔离的 Docker 容器里,内有完整文件系统:

    /mnt/user-data/

    Agent 可以读写编辑文件、执行 Bash 命令和代码、查看图片,全程在 Sandbox 内完成,可审计、隔离,不同 session 之间互不污染。

    图片

    ④ Context Engineering — 长任务不"忘事"

    DeerFlow 在上下文管理上做了两件事:

    01:Sub-Agent 上下文隔离:每个 Sub-Agent 只看到自己的上下文,不会被主 Agent 或其他 Sub-Agent 的信息干扰,保持专注。

    02:摘要压缩:在单个 session 内,主动总结已完成的子任务、把中间结果转存到文件系统、压缩暂时不重要的信息,在长链路任务里也能保持聚焦,不会轻易打爆上下文窗口。

    ⑤ 长期记忆 — 越用越了解你

    大多数 Agent 结束对话后一切归零,DeerFlow 2.0 跨 session 会逐步积累关于你的持久记忆:个人偏好、知识背景、写作风格、技术栈、重复出现的工作流。记忆保存在本地,控制权始终在你手里。

    图片

    多端接入:不只是终端工具

    DeerFlow 2.0 支持通过 IM 应用直接下发任务,无需公网 IP:

    渠道      传输方式                上手难度 Telegram Bot API(Long-polling) 简单 Slack Socket Mode               中等 飞书 / Lark WebSocket            中等 

    连接后,你可以直接在聊天窗口里使用 /new、/models、/memory 等命令和 DeerFlow 交互,普通消息则作为自然语言任务处理。

    快速上手:10 分钟跑起来

    推荐使用 Docker 方式,最省心:

    克隆并初始化 git clone https://github.com/bytedance/deer-flow.git cd deer-flow make config # 生成本地配置文件 编辑 CONFIG.YAML 配置模型 models: - name: gpt-4 display_name: GPT-4 use: langchain_openai:ChatOpenAI model: gpt-4 api_key: $OPENAI_API_KEY max_tokens: 4096 temperature: 0.7 DOCKER 启动(推荐) make docker-init # 首次拉取 sandbox 镜像 make docker-start # 启动服务 # 访问 http://localhost:2026

    图片

    一句话交给 CODING AGENT

    如果你在用 Claude Code、Cursor 或 Codex,可以直接把这句话发给它,让 Agent 帮你完成安装:

    "如果还没 clone DeerFlow,就先 clone, 然后按照 https://raw.githubusercontent.com/bytedance/deer-flow/main/Install.md 把它的本地开发环境初始化好"  

    推荐使用的模型

    DeerFlow 不绑定特定模型,只要实现了 OpenAI 兼容 API 即可接入。官方推荐以下几款表现较好的模型:

    模型                特点                适用场景 Doubao-Seed-2.0-Code 字节自研,代码能力强 编程类任务 DeepSeek v3.2 推理能力强,长上下文        深度研究、复杂拆解 Kimi 2.5 长上下文、多模态                文档分析、多模态任务 

    优先考虑具备以下能力的模型:100k+ tokens 长上下文窗口、强推理能力、稳定的 Tool Use 支持,以及多模态输入理解。

    Python SDK 内嵌使用

    不想启动完整 HTTP 服务?DeerFlow 也可以作为 Python 库直接使用:

    from deerflow.client import DeerFlowClient client = DeerFlowClient() # 普通对话 response = client.chat("帮我分析这篇论文", thread_id="my-thread") # 流式输出 for event in client.stream("最新的 AI Agent 趋势"): if event.type == "messages-tuple" and event.data.get("type") == "ai": print(event.data["content"]) # 管理能力 models = client.list_models() skills = client.list_skills() client.upload_files("thread-1", ["./report.pdf"])

    DeerFlow 具备系统指令执行、文件读写等高权限能力,默认仅建议在本地可信环境(127.0.0.1)部署。若需跨设备访问,务必配置 IP 白名单、前置身份验证(Nginx 反向代理)或网络隔离(VLAN)等安全措施。

    图片

    总结:Super Agent 时代的基础设施

    DeerFlow 2.0 真正有趣的地方,不在于它能做什么——而在于它如何把"做事"这件事本身系统化了。

    大多数 Agent 项目解决的是"用 LLM 完成任务"的问题,而 DeerFlow 解决的是更底层的问题:如何给 Agent 一个真实可靠的运行环境,让它有文件系统、有记忆、有工具、有并行执行能力,最终真正把复杂的、需要小时级才能完成的任务落地。

    这是从 ChatBot 到 Agent 的本质跃迁,而 DeerFlow 2.0,是目前开源社区里走得最彻底的那个。

    更多transformer,VIT,swin tranformer 参考头条号:人工智能研究所 v号:人工智能研究Suo, 启示AI科技

     动画详解transformer  在线视频教程 

    Read more

    OpenClaw 飞书机器人配置教程|一键对接飞书,实现聊天下达 AI 指令

    OpenClaw 飞书机器人配置教程|一键对接飞书,实现聊天下达 AI 指令

    适配版本:OpenClaw v2.3.12/v2.4.1(小龙虾)前置要求:已部署 OpenClaw Windows 端(Win10/Win11 均可),未部署可先下载一键部署包完成安装核心效果:配置完成后,可在飞书聊天窗口直接向机器人发送自然语言指令,OpenClaw 自动拆解任务、操控电脑完成操作,实现飞书远程下达 AI 任务 📌 OpenClaw Windows 一键部署包下载地址🔗 OpenClaw Windows 一键部署包 v2.3.12✅ 免配置、免命令行、解压即用,内置所有运行依赖,部署完成后再进行飞书配置即可 (此教程配合这个安装包使用) 一、配置前必看 1. 需拥有飞书账号,个人 / 企业账号均可,企业账号需确保有应用开发权限 2. OpenClaw

    本地部署中文OpenClaw 飞书机器人部署指南

    本地部署中文OpenClaw 飞书机器人部署指南

    适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用阿里云百炼作为大模型后端,通过飞书长连接模式实现 AI 机器人。 安装skills工具参考:OpenClaw 最新必安装 10 个 Skills-ZEEKLOG博客 自动化发布小红书:OpenClaw 实现小红书自动化发文:操作指南 步骤 1:安装 OpenClaw(openclaw中文社区) 1. 打开 PowerShell。 2. 执行以下命令一键安装: # 在 PowerShell 中运行 iwr -useb https://clawd.org.cn/install.ps1 | iex * 安装过程会自动下载 Node.js、依赖等,耗时几分钟。 * 安装完成后会自动进入配置向导,或提示你继续下一步。

    ComfyUI Manager高效管理指南:提升AI绘画工作流的核心工具

    ComfyUI Manager高效管理指南:提升AI绘画工作流的核心工具 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager ComfyUI Manager是AI绘画爱好者不可或缺的效率工具,它通过集中管理插件、模型和环境配置,帮助用户轻松扩展ComfyUI功能,优化工作流程。本文将从功能价值、场景化应用到问题解决,全面介绍如何利用这一工具提升创作效率。 评估环境价值:系统兼容性检查 在开始使用ComfyUI Manager前,确保系统环境满足基本要求是避免后续问题的关键步骤。这不仅关系到工具能否正常运行,也影响到后续插件和模型的兼容性。 执行系统兼容性验证 1. 检查Python版本 * 方法一:终端执行python --version或python3 --version 2. 验证Git安装状态 * 基础检查:git --version * 进阶验证:git config --global --list确认用户配置 3. 评估系统资

    FPGA商用级ISP:动态坏点校正(DPCC)的滑窗架构与并行判决实现

    FPGA商用级ISP:动态坏点校正(DPCC)的滑窗架构与并行判决实现

    【写在前面:为什么要写这个专栏?】 在数字图像处理领域,ISP(图像信号处理器)的算法原理并不罕见,但真正能够支持 4K@60fps 实时处理、并经过商用验证的 Verilog 硬核实现思路 却往往秘和封装在黑盒之中。 我手里有一套商用级的 ISP 源码,通过对其进行深度拆解,我希望能够分析并抽象出其背后的设计逻辑。这不仅是对高性能图像处理架构的复盘,更是希望能为广大 FPGA 开发者和 ISP 算法工程师提供一个硬核的设计基线(Baseline)。通过分享这些商用 IP 的实现细节,我希望能帮助更多人了解如何将复杂的图像算法转化为高效的硬件流水线,为行业提供一份有价值的参考。 1. 深度解析:为什么“商用级”坏点校正极其困难? 在传感器(Sensor)制造中,由于半导体工艺缺陷或后期老化,不可避免会出现常亮像素(Hot Pixel)或死像素(Dead Pixel)。 * 痛点一:误杀边缘。 如果只是简单的中值滤波,图像中真实的星星、