字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

打开 deerflow 的官网,瞬间被首页的这段文字震撼到了,do anything with deerflow。让 agent 做任何事情,这让我同时想到了 openclaw 刚上线时场景。

图片

字节跳动将 DeerFlow 彻底重写,发布 2.0 版本,并在发布当天登上 GitHub Trending 第一名。这不是一次功能迭代,而是一次从"深度研究框架"到"Super Agent 运行时基础设施"的彻底蜕变。

背景:从 v1 到 v2,发生了什么?

DeerFlow(Deep Exploration and Efficient Research Flow)最初是一个专注于深度研究的 AI 框架——给它一个问题,它会搜索、整理、输出报告。

但社区的玩法远超出了设计者的想象。开发者们拿它搭数据流水线、生成演示文稿、自动化内容生产、快速起 dashboard……这让团队意识到,DeerFlow 从一开始就不只是"研究工具",它更像一个让 Agent 真正把事情做完的运行环境。

图片

核心变化

DeerFlow 2.0 与 v1 没有共用任何代码,是一次彻底重写。旧版(Deep Research 框架)依然保留在 1.x 分支;主开发线已全面转向 2.0。

它到底是什么?

官方给出的定位是 Super Agent Harness(超级 Agent 调度框架)。这个词听起来抽象,拆开来理解其实很清晰。

图片

现在的 DeerFlow 2.0 不再仅仅是一个跑研究报告的工具,它进化成了一个 Harness(挂架/系统平台)

  • 什么是 Harness? 想象一下,大模型(如 DeepSeek, Kimi, Doubao)是发动机,而 DeerFlow 就是那台复杂的 F1 赛车底盘。它把 Sub-agents(子智能体)Memory(记忆)Sandbox(沙箱) 和 Skills(技能) 完美地挂载在一起。

开发者视角: 以往我们要写一个 Agent,需要处理繁琐的上下文管理、文件读写权限、多任务并行。DeerFlow 2.0 直接把这些基础设施“标准化”了。

图片

五大核心特性深度解析

① Skills — Agent 能力的"乐高积木"

Skills 是 DeerFlow 能完成几乎任何事情的秘密武器。一个标准 Skill 通常就是一个 Markdown 文件,定义了工作流、最佳实践和参考资源。DeerFlow 内置了研究、报告生成、演示文稿制作、网页生成、图像/视频生成等场景的 Skill。

关键设计是按需渐进加载:不会一次性把所有 Skill 塞进上下文,只有任务确实需要时才加载,有效控制 Token 消耗。

Claude Code 深度集成:通过 claude-to-deerflow skill, 你可以直接在 Claude Code 终端里和运行中的 DeerFlow  实例交互——发送研究任务、查看状态、管理 threads,全程不用离开终端。 安装 CLAUDE CODE 集成 SKILL npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow 

    图片

    ② Sub-Agents — 并行执行复杂任务

    传统 Agent 对于复杂任务的处理方式是"一条线走到底",DeerFlow 不同:Lead Agent 会先拆解任务,然后动态拉起多个 Sub-Agent,条件允许时并行运行,最后汇总成完整输出。

    一个典型的研究任务可以被拆成十几个 Sub-Agent,分别探索不同方向,最终合并成报告、网站或带生成视觉内容的演示文稿。这也是 DeerFlow 能处理"从几分钟到几小时"任务的原因。

    ③ Sandbox 文件系统 — Agent 有了自己的"电脑"

    这是 DeerFlow 和"带工具的聊天机器人"之间最根本的差别:Agent 有一台真正的"电脑"。

    每个任务运行在隔离的 Docker 容器里,内有完整文件系统:

    /mnt/user-data/

    Agent 可以读写编辑文件、执行 Bash 命令和代码、查看图片,全程在 Sandbox 内完成,可审计、隔离,不同 session 之间互不污染。

    图片

    ④ Context Engineering — 长任务不"忘事"

    DeerFlow 在上下文管理上做了两件事:

    01:Sub-Agent 上下文隔离:每个 Sub-Agent 只看到自己的上下文,不会被主 Agent 或其他 Sub-Agent 的信息干扰,保持专注。

    02:摘要压缩:在单个 session 内,主动总结已完成的子任务、把中间结果转存到文件系统、压缩暂时不重要的信息,在长链路任务里也能保持聚焦,不会轻易打爆上下文窗口。

    ⑤ 长期记忆 — 越用越了解你

    大多数 Agent 结束对话后一切归零,DeerFlow 2.0 跨 session 会逐步积累关于你的持久记忆:个人偏好、知识背景、写作风格、技术栈、重复出现的工作流。记忆保存在本地,控制权始终在你手里。

    图片

    多端接入:不只是终端工具

    DeerFlow 2.0 支持通过 IM 应用直接下发任务,无需公网 IP:

    渠道      传输方式                上手难度 Telegram Bot API(Long-polling) 简单 Slack Socket Mode               中等 飞书 / Lark WebSocket            中等 

    连接后,你可以直接在聊天窗口里使用 /new、/models、/memory 等命令和 DeerFlow 交互,普通消息则作为自然语言任务处理。

    快速上手:10 分钟跑起来

    推荐使用 Docker 方式,最省心:

    克隆并初始化 git clone https://github.com/bytedance/deer-flow.git cd deer-flow make config # 生成本地配置文件 编辑 CONFIG.YAML 配置模型 models: - name: gpt-4 display_name: GPT-4 use: langchain_openai:ChatOpenAI model: gpt-4 api_key: $OPENAI_API_KEY max_tokens: 4096 temperature: 0.7 DOCKER 启动(推荐) make docker-init # 首次拉取 sandbox 镜像 make docker-start # 启动服务 # 访问 http://localhost:2026

    图片

    一句话交给 CODING AGENT

    如果你在用 Claude Code、Cursor 或 Codex,可以直接把这句话发给它,让 Agent 帮你完成安装:

    "如果还没 clone DeerFlow,就先 clone, 然后按照 https://raw.githubusercontent.com/bytedance/deer-flow/main/Install.md 把它的本地开发环境初始化好"  

    推荐使用的模型

    DeerFlow 不绑定特定模型,只要实现了 OpenAI 兼容 API 即可接入。官方推荐以下几款表现较好的模型:

    模型                特点                适用场景 Doubao-Seed-2.0-Code 字节自研,代码能力强 编程类任务 DeepSeek v3.2 推理能力强,长上下文        深度研究、复杂拆解 Kimi 2.5 长上下文、多模态                文档分析、多模态任务 

    优先考虑具备以下能力的模型:100k+ tokens 长上下文窗口、强推理能力、稳定的 Tool Use 支持,以及多模态输入理解。

    Python SDK 内嵌使用

    不想启动完整 HTTP 服务?DeerFlow 也可以作为 Python 库直接使用:

    from deerflow.client import DeerFlowClient client = DeerFlowClient() # 普通对话 response = client.chat("帮我分析这篇论文", thread_id="my-thread") # 流式输出 for event in client.stream("最新的 AI Agent 趋势"): if event.type == "messages-tuple" and event.data.get("type") == "ai": print(event.data["content"]) # 管理能力 models = client.list_models() skills = client.list_skills() client.upload_files("thread-1", ["./report.pdf"])

    DeerFlow 具备系统指令执行、文件读写等高权限能力,默认仅建议在本地可信环境(127.0.0.1)部署。若需跨设备访问,务必配置 IP 白名单、前置身份验证(Nginx 反向代理)或网络隔离(VLAN)等安全措施。

    图片

    总结:Super Agent 时代的基础设施

    DeerFlow 2.0 真正有趣的地方,不在于它能做什么——而在于它如何把"做事"这件事本身系统化了。

    大多数 Agent 项目解决的是"用 LLM 完成任务"的问题,而 DeerFlow 解决的是更底层的问题:如何给 Agent 一个真实可靠的运行环境,让它有文件系统、有记忆、有工具、有并行执行能力,最终真正把复杂的、需要小时级才能完成的任务落地。

    这是从 ChatBot 到 Agent 的本质跃迁,而 DeerFlow 2.0,是目前开源社区里走得最彻底的那个。

    更多transformer,VIT,swin tranformer 参考头条号:人工智能研究所 v号:人工智能研究Suo, 启示AI科技

     动画详解transformer  在线视频教程 

    Read more

    7.1 自动化触发器:Trigger 机制与 Webhook 的妙用

    7.1 自动化触发器:Trigger 机制与 Webhook 的妙用 1. 引言:从“手动触发”到“事件驱动” 在传统 CI/CD 中,开发者需要手动点击“构建”按钮,或者定时轮询代码仓库。这种方式效率低下,且容易遗漏。 现代 DevOps 的核心是事件驱动(Event-Driven):代码提交、PR 创建、镜像推送、定时任务,都能自动触发相应的流水线。 本节将深入探讨各种 Trigger 机制,让你构建一个“全自动、零人工干预”的 DevOps 工作流。 2. 代码变更触发:Git Webhook 2.1 原理 当开发者执行

    基于 Langchain + 开源模型的前端内容创作Agent详细设计方案

    基于 Langchain + 开源模型的前端内容创作Agent详细设计方案

    基于 Langchain 框架与开源模型,结合此前的全流程创作需求,以下设计一款 模块化、可复用、全链路自动化 的前端内容创作 Agent。设计核心围绕「Langchain 组件解耦 + 开源模型适配 + 全流程闭环」,从架构分层、模块实现、技术选型到部署落地,提供详细可落地的方案。 基于 Langchain + 开源模型的前端内容创作Agent详细设计方案 一、Agent 核心定位与目标 定位 一款 前端技术领域专属的全流程内容创作自动化Agent,基于用户输入的核心关键字,通过 Langchain 实现流程编排、工具调用与记忆管理,结合开源大模型完成「关键字拓展→创作Plan→逻辑框架→博客撰写→ZEEKLOG发布」的端到端闭环,无需人工干预各环节衔接。 核心目标 1. 技术适配:兼容主流开源大模型(Llama 3、Mistral、Qwen等),支持本地/

    本地部署 Gemma-1B 轻量级大模型:Ollama + Open WebUI 完整配置与实战指南

    本地部署 Gemma-1B 轻量级大模型:Ollama + Open WebUI 完整配置与实战指南 关键词:Gemma-1B、Ollama、Open WebUI、本地大模型、LLM 部署、JSON 配置、开源模型、轻量化 AI、私有化部署、OpenAI 兼容 API 适用读者:AI 工程师、全栈开发者、技术爱好者、边缘计算研究者、企业私有化 LLM 应用构建者 阅读时长:约 25 分钟(含代码实操) 📌 引言:为什么选择 Gemma-1B 进行本地部署? 在生成式人工智能(Generative AI)迅猛发展的今天,大型语言模型(Large Language Models,

    前端数据埋点

    当我们想知道:“这个按钮有多少人点了?”、“用户在这个页面停留了多久?”、“哪个渠道来的用户转化率最高?”。 回答这些问题的核心技术手段,就是埋点(Tracking)。 一、什么是埋点?基本逻辑是什么? 1.1 定义 简单来说,埋点就是在特定的位置“埋”下一段代码或配置,当用户触发特定行为(如点击、浏览、输入)时,自动采集相关数据并发送到服务器的过程。 如果把网站比作一家超市,埋点就是安装在货架、收银台、门口的摄像头和传感器,记录顾客的行走路线、拿起商品的次数以及最终购买的行为。 1.2 基本逻辑流程 一个完整的埋点流程通常包含以下五个步骤: 1. 触发(Trigger): 用户产生行为(点击按钮、页面加载、接口请求等)。 2. 采集(Collect): 前端代码捕获该行为,并收集上下文信息(时间、URL、用户 ID、设备信息等)