字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

打开 deerflow 的官网,瞬间被首页的这段文字震撼到了,do anything with deerflow。让 agent 做任何事情,这让我同时想到了 openclaw 刚上线时场景。

图片

字节跳动将 DeerFlow 彻底重写,发布 2.0 版本,并在发布当天登上 GitHub Trending 第一名。这不是一次功能迭代,而是一次从"深度研究框架"到"Super Agent 运行时基础设施"的彻底蜕变。

背景:从 v1 到 v2,发生了什么?

DeerFlow(Deep Exploration and Efficient Research Flow)最初是一个专注于深度研究的 AI 框架——给它一个问题,它会搜索、整理、输出报告。

但社区的玩法远超出了设计者的想象。开发者们拿它搭数据流水线、生成演示文稿、自动化内容生产、快速起 dashboard……这让团队意识到,DeerFlow 从一开始就不只是"研究工具",它更像一个让 Agent 真正把事情做完的运行环境。

图片

核心变化

DeerFlow 2.0 与 v1 没有共用任何代码,是一次彻底重写。旧版(Deep Research 框架)依然保留在 1.x 分支;主开发线已全面转向 2.0。

它到底是什么?

官方给出的定位是 Super Agent Harness(超级 Agent 调度框架)。这个词听起来抽象,拆开来理解其实很清晰。

图片

现在的 DeerFlow 2.0 不再仅仅是一个跑研究报告的工具,它进化成了一个 Harness(挂架/系统平台)

  • 什么是 Harness? 想象一下,大模型(如 DeepSeek, Kimi, Doubao)是发动机,而 DeerFlow 就是那台复杂的 F1 赛车底盘。它把 Sub-agents(子智能体)Memory(记忆)Sandbox(沙箱) 和 Skills(技能) 完美地挂载在一起。

开发者视角: 以往我们要写一个 Agent,需要处理繁琐的上下文管理、文件读写权限、多任务并行。DeerFlow 2.0 直接把这些基础设施“标准化”了。

图片

五大核心特性深度解析

① Skills — Agent 能力的"乐高积木"

Skills 是 DeerFlow 能完成几乎任何事情的秘密武器。一个标准 Skill 通常就是一个 Markdown 文件,定义了工作流、最佳实践和参考资源。DeerFlow 内置了研究、报告生成、演示文稿制作、网页生成、图像/视频生成等场景的 Skill。

关键设计是按需渐进加载:不会一次性把所有 Skill 塞进上下文,只有任务确实需要时才加载,有效控制 Token 消耗。

Claude Code 深度集成:通过 claude-to-deerflow skill, 你可以直接在 Claude Code 终端里和运行中的 DeerFlow  实例交互——发送研究任务、查看状态、管理 threads,全程不用离开终端。 安装 CLAUDE CODE 集成 SKILL npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow 

    图片

    ② Sub-Agents — 并行执行复杂任务

    传统 Agent 对于复杂任务的处理方式是"一条线走到底",DeerFlow 不同:Lead Agent 会先拆解任务,然后动态拉起多个 Sub-Agent,条件允许时并行运行,最后汇总成完整输出。

    一个典型的研究任务可以被拆成十几个 Sub-Agent,分别探索不同方向,最终合并成报告、网站或带生成视觉内容的演示文稿。这也是 DeerFlow 能处理"从几分钟到几小时"任务的原因。

    ③ Sandbox 文件系统 — Agent 有了自己的"电脑"

    这是 DeerFlow 和"带工具的聊天机器人"之间最根本的差别:Agent 有一台真正的"电脑"。

    每个任务运行在隔离的 Docker 容器里,内有完整文件系统:

    /mnt/user-data/

    Agent 可以读写编辑文件、执行 Bash 命令和代码、查看图片,全程在 Sandbox 内完成,可审计、隔离,不同 session 之间互不污染。

    图片

    ④ Context Engineering — 长任务不"忘事"

    DeerFlow 在上下文管理上做了两件事:

    01:Sub-Agent 上下文隔离:每个 Sub-Agent 只看到自己的上下文,不会被主 Agent 或其他 Sub-Agent 的信息干扰,保持专注。

    02:摘要压缩:在单个 session 内,主动总结已完成的子任务、把中间结果转存到文件系统、压缩暂时不重要的信息,在长链路任务里也能保持聚焦,不会轻易打爆上下文窗口。

    ⑤ 长期记忆 — 越用越了解你

    大多数 Agent 结束对话后一切归零,DeerFlow 2.0 跨 session 会逐步积累关于你的持久记忆:个人偏好、知识背景、写作风格、技术栈、重复出现的工作流。记忆保存在本地,控制权始终在你手里。

    图片

    多端接入:不只是终端工具

    DeerFlow 2.0 支持通过 IM 应用直接下发任务,无需公网 IP:

    渠道      传输方式                上手难度 Telegram Bot API(Long-polling) 简单 Slack Socket Mode               中等 飞书 / Lark WebSocket            中等 

    连接后,你可以直接在聊天窗口里使用 /new、/models、/memory 等命令和 DeerFlow 交互,普通消息则作为自然语言任务处理。

    快速上手:10 分钟跑起来

    推荐使用 Docker 方式,最省心:

    克隆并初始化 git clone https://github.com/bytedance/deer-flow.git cd deer-flow make config # 生成本地配置文件 编辑 CONFIG.YAML 配置模型 models: - name: gpt-4 display_name: GPT-4 use: langchain_openai:ChatOpenAI model: gpt-4 api_key: $OPENAI_API_KEY max_tokens: 4096 temperature: 0.7 DOCKER 启动(推荐) make docker-init # 首次拉取 sandbox 镜像 make docker-start # 启动服务 # 访问 http://localhost:2026

    图片

    一句话交给 CODING AGENT

    如果你在用 Claude Code、Cursor 或 Codex,可以直接把这句话发给它,让 Agent 帮你完成安装:

    "如果还没 clone DeerFlow,就先 clone, 然后按照 https://raw.githubusercontent.com/bytedance/deer-flow/main/Install.md 把它的本地开发环境初始化好"  

    推荐使用的模型

    DeerFlow 不绑定特定模型,只要实现了 OpenAI 兼容 API 即可接入。官方推荐以下几款表现较好的模型:

    模型                特点                适用场景 Doubao-Seed-2.0-Code 字节自研,代码能力强 编程类任务 DeepSeek v3.2 推理能力强,长上下文        深度研究、复杂拆解 Kimi 2.5 长上下文、多模态                文档分析、多模态任务 

    优先考虑具备以下能力的模型:100k+ tokens 长上下文窗口、强推理能力、稳定的 Tool Use 支持,以及多模态输入理解。

    Python SDK 内嵌使用

    不想启动完整 HTTP 服务?DeerFlow 也可以作为 Python 库直接使用:

    from deerflow.client import DeerFlowClient client = DeerFlowClient() # 普通对话 response = client.chat("帮我分析这篇论文", thread_id="my-thread") # 流式输出 for event in client.stream("最新的 AI Agent 趋势"): if event.type == "messages-tuple" and event.data.get("type") == "ai": print(event.data["content"]) # 管理能力 models = client.list_models() skills = client.list_skills() client.upload_files("thread-1", ["./report.pdf"])

    DeerFlow 具备系统指令执行、文件读写等高权限能力,默认仅建议在本地可信环境(127.0.0.1)部署。若需跨设备访问,务必配置 IP 白名单、前置身份验证(Nginx 反向代理)或网络隔离(VLAN)等安全措施。

    图片

    总结:Super Agent 时代的基础设施

    DeerFlow 2.0 真正有趣的地方,不在于它能做什么——而在于它如何把"做事"这件事本身系统化了。

    大多数 Agent 项目解决的是"用 LLM 完成任务"的问题,而 DeerFlow 解决的是更底层的问题:如何给 Agent 一个真实可靠的运行环境,让它有文件系统、有记忆、有工具、有并行执行能力,最终真正把复杂的、需要小时级才能完成的任务落地。

    这是从 ChatBot 到 Agent 的本质跃迁,而 DeerFlow 2.0,是目前开源社区里走得最彻底的那个。

    更多transformer,VIT,swin tranformer 参考头条号:人工智能研究所 v号:人工智能研究Suo, 启示AI科技

     动画详解transformer  在线视频教程 

    Read more

    AIGC赋能Java编程:智能工具引领效率、创新与理解的新纪元

    AIGC赋能Java编程:智能工具引领效率、创新与理解的新纪元

    文章目录 * 1. AIGC驱动的智能代码补全与生成 * 2. AIGC助力错误检测与即时修复 * 3. AIGC推动代码优化与智能重构 * 4. AIGC在自动化测试中的应用 * 5. AIGC在智能文档生成与代码理解中的作用 * 《Java面向对象程序设计:AI大模型给程序员插上翅膀》 * 亮点 * 内容简介 * 目录 * 《Python金融大数据分析》 * 亮点 * 内容简介 * 目录 在软件开发领域,Java作为一种历史悠久且广泛应用的编程语言,凭借其强大的跨平台能力、丰富的API和广泛的社区支持,一直是众多开发者的首选。近年来,随着人工智能生成内容(AIGC, Artificial Intelligence Generated Content)技术的迅猛发展,AI工具正逐步渗透到Java编程的各个环节,从代码编写、调试、优化到文档生成,为开发者提供了前所未有的便利和创新机会。 1. AIGC驱动的智能代码补全与生成 AIGC工具利用深度学习和自然语言处理技术,能够准确理解开发者的意图,提供智能的代码补全建议,甚至

    Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考

    Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考

    Llama-2-7b 昇腾 NPU 测评总结:核心性能数据、场景适配建议与硬件选型参考 背景与测评目标 本文为适配大模型国产化部署需求,以 Llama-2-7b 为对象,在 GitCode Notebook 昇腾 NPU 环境中完成从依赖安装到模型部署的全流程落地,并通过六大维度测评验证:单请求吞吐量稳定 15.6-17.6 tokens / 秒,batch=4 时总吞吐量达 63.33 tokens / 秒,16GB 显存即可支撑高并发,最终提供可复现的部署方案、性能基准数据及硬件选型建议,助力高效落地国产算力大模型应用。 昇腾 NPU :以华为自研达芬奇架构为核心,高效张量计算适配大模型全场景;搭载 CANN 架构简化开发,支持量化与混合并行技术平衡算力与能耗,深度兼容开源生态适配国产化需求 Llama-2-7B 模型:Meta 开源 70

    VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

    VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

    VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入 前言:为何你的 Copilot 需要一次“魔改”? 本文旨在帮助所有希望突破 VSCode Copilot 模型限制、追求更高代码效率和性价比的开发者。如果你也曾面临以下困境,那么这篇文章就是为你量身打造的: * Copilot 官方模型不够用:想尝试最新、最强的国产模型(如智谱 GLM、文心一言、Kimi)却无从下手。 * API 订阅成本高:官方或其他国外模型的订阅费和按量计费(通常以美元结算)让个人开发者望而却步。 * 替代品体验有瑕疵:其他辅助插件在某些场景下不如原生的 Copilot 轻便、流畅。 本文将提供一个终极解决方案:通过一个 VSCode 插件,无缝接入任何支持 OpenAI 兼容接口的大模型。我将以当前备受瞩目的国产模型智谱 GLM-5.1 为例,

    AMD显卡终极兼容性解决方案:llama.cpp快速部署完整指南

    AMD显卡终极兼容性解决方案:llama.cpp快速部署完整指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 想要在AMD显卡上流畅运行llama.cpp却总是遇到各种兼容性问题?本文为你提供一套完整的解决方案,从问题识别到性能优化,手把手教你解决AMD显卡与Vulkan后端的兼容性挑战。 为什么AMD显卡与llama.cpp存在兼容性问题 AMD显卡用户在使用llama.cpp时常常面临Vulkan初始化失败、模型加载卡顿、推理速度缓慢等问题。这些问题主要源于: * 驱动版本不匹配:不同世代的AMD显卡对Vulkan标准的支持程度存在差异 * 内存管理机制冲突:AMD的显存管理与llama.cpp的预期存在偏差 * 着色器编译异常:特定驱动版本在编译SPIR-V着色器时会产生无效代码 这张矩阵乘法示意图展示了llama.cpp在GPU上进行张量运算的核心原理,帮助你理解为什么兼容性问