DeerFlow基础教程:DeerFlow控制台UI与Web UI双模式使用详解

DeerFlow基础教程:DeerFlow控制台UI与Web UI双模式使用详解

1. DeerFlow是什么:你的个人深度研究助理

你有没有过这样的经历?想快速了解一个新领域,比如“量子计算在金融建模中的最新应用”,但搜了一堆资料,发现信息零散、真假难辨、专业门槛高,最后只能放弃?或者需要为一次重要汇报准备一份结构清晰、数据扎实、有深度分析的行业报告,却卡在资料收集和逻辑梳理上,耗时又费力?

DeerFlow就是为解决这类问题而生的。它不是另一个聊天机器人,而是一个能真正帮你“做研究”的AI助手——你的个人深度研究助理。

它不满足于简单回答问题,而是主动调用搜索引擎获取最新信息、运行Python代码验证假设、调用专业工具分析数据、整合多源内容生成结构化报告,甚至能把研究成果变成一段自然流畅的播客音频。整个过程就像你请了一支由研究员、数据分析师、文案编辑和播客制作人组成的虚拟团队,在后台协同工作。

更关键的是,它把这一切复杂能力,封装成了两种你随时可以打开、上手就用的界面:一个简洁高效的命令行控制台(Console UI),适合喜欢直接、快速、可复现操作的用户;还有一个功能完整、交互友好的网页界面(Web UI),适合需要可视化操作、多步骤协作或分享成果的场景。这篇教程,就带你从零开始,把这两种模式都用明白。

2. 快速上手:环境检查与服务启动

在开始使用DeerFlow之前,我们需要确认两个核心服务已经正常运行。这就像开车前要检查油量和发动机一样,是确保一切顺利的前提。整个过程非常简单,只需要两条命令。

2.1 检查大模型推理服务(vLLM)是否就绪

DeerFlow的“大脑”是一个名为Qwen3-4B-Instruct-2507的高性能语言模型,它被部署在vLLM推理引擎上。我们首先确认这个“大脑”是否已经清醒并准备好工作。

在终端中输入以下命令:

cat /root/workspace/llm.log 

这条命令会读取vLLM服务的日志文件。如果服务启动成功,你将看到类似下面这样的一段输出:

INFO 01-26 10:23:45 [server.py:189] Starting vLLM server on http://0.0.0.0:8000 INFO 01-26 10:23:45 [engine.py:212] vLLM engine started. INFO 01-26 10:23:45 [server.py:201] vLLM server is ready. 

最关键的信息是最后一行 vLLM server is ready.。只要看到这行字,就说明你的大模型服务已经完全就绪,可以随时响应指令了。

2.2 检查DeerFlow主服务是否启动成功

接下来,我们要确认DeerFlow这个“研究项目管理中枢”本身是否已经启动。

同样在终端中输入:

cat /root/workspace/bootstrap.log 

这条命令会读取DeerFlow主服务的启动日志。一个成功的启动日志,结尾处会清晰地显示:

INFO: Application startup complete. INFO: Uvicorn running on http://0.0.0.0:8001 (Press CTRL+C to quit) 

其中 Application startup complete. 是最核心的标志,意味着DeerFlow的所有组件——协调器、规划器、研究团队、报告员——都已经加载完毕,整套系统进入了待命状态。

小贴士:如果这两条命令的输出中没有看到“ready”或“complete”这样的关键词,而是报错或卡在某个步骤,那可能是服务启动失败。此时,最简单的办法是重启整个环境,然后重新执行这两条命令检查。

3. 双模式实战:控制台UI与Web UI的详细操作指南

现在,两个核心服务都已就绪,我们可以正式进入DeerFlow的世界了。它提供了两种截然不同但又互补的使用方式:一种是高效、直接的控制台模式;另一种是直观、丰富的网页模式。我们来逐一详解。

3.1 控制台UI:极简主义的深度研究

控制台UI是DeerFlow最原生、最轻量的交互方式。它没有花哨的界面,只有纯粹的文本输入与输出,因此速度最快,资源占用最低,特别适合进行快速验证、调试流程或批量处理任务。

3.1.1 启动控制台

在终端中,直接输入以下命令即可启动DeerFlow的控制台界面:

deeflow console 

按下回车后,你会看到一个简洁的提示符,例如 DeerFlow >。这就表示你已经进入了它的“研究指挥中心”。

3.1.2 开始一次深度研究

现在,你可以像和一位资深研究员对话一样,直接提出你的问题。例如,输入:

DeerFlow > 请帮我分析过去一年比特币价格的主要波动原因,并总结成一份包含三个关键点的简报。 

DeerFlow会立刻开始工作:它会先规划研究步骤,然后调用Tavily搜索引擎获取最新的财经新闻和分析报告,接着可能运行Python脚本对公开的价格数据进行趋势分析,最后将所有信息整合,生成一份结构清晰、论据充分的简报。

整个过程会在控制台中以实时日志的形式展示出来,让你清楚地看到每一步发生了什么。最终,一份完整的、带有数据支撑的简报就会呈现在你眼前。

3.1.3 控制台的实用技巧
  • 历史命令:按键盘上的上下箭头键,可以快速翻阅和复用之前输入过的命令,避免重复敲打。
  • 中断任务:如果某次研究耗时过长,或者你想中止当前任务,直接按 Ctrl+C 即可。
  • 退出控制台:输入 exit 或者再次按 Ctrl+C,就能干净利落地退出。

控制台UI的魅力在于它的“所见即所得”。你不需要点击任何按钮,所有的操作都通过自然语言完成,整个研究过程透明、可控、可追溯。

3.2 Web UI:功能完备的研究工作台

如果你需要更丰富的交互体验,比如查看搜索结果的原始链接、编辑生成的报告草稿、或者将整个研究过程分享给同事,那么Web UI就是为你量身打造的。

3.2.1 打开前端界面

在镜像环境中,通常会有一个预置的“WebUI”按钮。点击它,系统会自动为你打开一个全新的浏览器标签页,地址通常是 http://localhost:8001

当你看到一个设计清爽、顶部有“DeerFlow”Logo、中间是醒目的输入框和“Start Research”按钮的页面时,恭喜你,Web UI已经成功加载。

3.2.2 发起一次研究:三步走

Web UI的操作流程非常直观,遵循“提问—执行—查看”的三步逻辑。

  1. 第二步:点击“Start Research”按钮
    这个按钮通常位于输入框的右侧,是一个醒目的蓝色按钮。点击它,DeerFlow就会开始执行你刚才下达的指令。
  2. 第三步:在右侧面板中查看动态进展与最终成果
    点击按钮后,页面右侧会立刻出现一个动态更新的“研究流”面板。你会看到它一步步地展示:整个过程就像在看一场幕后纪录片,既保证了结果的可靠性,也让你对AI的工作逻辑有了更深的理解。
    • 它如何将你的大问题拆解成几个小任务(规划);
    • 它调用了哪些搜索引擎,找到了哪些关键网页(搜索);
    • 它运行了哪些Python代码,得出了什么数据结论(编码);
    • 最终,它如何将所有碎片信息编织成一份连贯、专业的报告(报告)。

第一步:在输入框中提出你的研究问题
这个输入框就是你的“研究指令入口”。你可以输入任何你想深入探究的问题,比如:

“对比分析Stable Diffusion 3和Flux.1在生成写实人像方面的优缺点,并提供具体的图像示例。”
3.2.3 Web UI的核心优势
  • 可视化报告编辑:生成的报告并非一成不变。你可以直接在网页上选中某一段文字进行修改、增删,就像在Word里编辑一样。修改后,还可以一键重新生成播客,实现“文稿—音频”的无缝切换。
  • 多轮对话与上下文记忆:在同一个研究会话中,你可以连续追问。例如,在得到一份关于“医疗AI”的报告后,你可以紧接着问:“请把这份报告中提到的三个关键技术,分别用一句话解释其原理。” Web UI会完美记住之前的上下文,给出精准的回应。
  • 成果导出与分享:完成的研究可以一键导出为Markdown格式的文档,方便存档;也可以直接复制链接,分享给团队成员,让他们在自己的浏览器里查看完整的、带时间戳的研究过程。

4. 实战案例:从零开始完成一次完整研究

理论讲完,不如我们来一次真实的演练。我们将以“分析2024年全球AI芯片市场的竞争格局”为题,完整走一遍从提问到获得报告的全过程,让你对DeerFlow的能力有最直观的感受。

4.1 在Web UI中发起研究

打开Web UI,将以下问题粘贴到输入框中:

“请全面分析2024年全球AI芯片市场的竞争格局。重点包括:1)主要玩家(英伟达、AMD、英特尔、华为、寒武纪等)的市场份额与技术路线;2)市场增长的关键驱动因素;3)未来两年面临的主要挑战。请用中文撰写一份结构清晰、数据详实的分析报告。”

点击“Start Research”按钮。

4.2 观察研究流的动态执行

几秒钟后,右侧的研究流面板开始滚动。你会看到:

  • 规划阶段:它将问题分解为“收集各公司财报与市场报告”、“提取市场份额数据”、“分析技术白皮书”、“总结驱动因素与挑战”四个子任务。
  • 搜索阶段:它调用Brave Search,找到了IDC、Counterpoint、以及各公司官网发布的最新数据。
  • 编码阶段:它运行了一个Python脚本,从多个网页中结构化地提取了市场份额数字,并进行了简单的百分比计算。
  • 报告阶段:它将所有信息整合,生成了一份包含“市场概览”、“厂商深度分析”、“驱动与挑战”三大章节的报告。

4.3 对报告进行个性化润色

报告生成后,你可能会觉得“厂商深度分析”部分的数据表格不够直观。这时,你可以直接在网页上选中那段文字,将其替换为一个更清晰的Markdown表格:

厂商2024年预估份额核心技术路线主要优势
英伟达80%CUDA生态 + Hopper架构生态壁垒极高,开发者数量庞大
AMD12%ROCm生态 + MI300系列性价比突出,对CUDA有良好兼容性
............

保存修改后,这份报告就完全属于你了。

5. 常见问题与实用建议

在实际使用中,你可能会遇到一些小状况。这里整理了几个高频问题及对应的解决方案,帮你少走弯路。

5.1 为什么我的问题得不到回答,或者回答很笼统?

这通常是因为问题的表述不够具体。DeerFlow是一个“深度”研究工具,它需要明确的指令才能发挥最大效能。

  • 避免:“介绍一下人工智能。”(范围太大,无从下手)
  • 推荐:“请对比分析2024年发布的Qwen3、Llama4和Gemma3这三个开源大模型在代码生成任务上的基准测试得分(HumanEval、MBPP),并用表格呈现。”

核心原则:越具体的问题,越能得到高质量的答案。试着在问题中加入“对比”、“分析”、“总结”、“用表格呈现”、“基于2024年数据”等关键词。

5.2 Web UI打不开,或者页面显示空白?

这大概率是网络连接问题。请确认:

  • 你是在镜像环境内部的浏览器中访问 http://localhost:8001,而不是在自己电脑的浏览器里访问。
  • 如果你在远程服务器上操作,请确保你的本地浏览器能够访问该服务器的8001端口(可能需要配置SSH端口转发)。

5.3 如何让生成的报告更有“人味”,而不是冷冰冰的AI腔?

DeerFlow生成的初稿是严谨的,但你可以轻松地让它变得生动。一个简单有效的方法是:在提问时,就指定报告的风格。

例如,你可以这样问:

“请以一位资深科技记者的口吻,撰写一篇关于‘AI芯片国产替代’的深度分析报告,要求语言犀利、观点鲜明,并在结尾提出三条务实的建议。”

通过这种方式,你就在一开始就为AI设定了“角色”,它生成的内容自然会更富个性和感染力。

6. 总结:掌握双模式,开启你的深度研究之旅

回顾一下,我们今天一起完成了DeerFlow的入门之旅:

  • 我们首先确认了vLLM和DeerFlow主服务这两个“心脏”已经健康跳动;
  • 接着,我们深入体验了两种核心交互模式:控制台UI,它像一把锋利的瑞士军刀,适合追求极致效率的单点突破;Web UI,它则像一个功能齐全的研究实验室,适合需要可视化、可编辑、可分享的复杂项目;
  • 我们还通过一个真实案例,完整走了一遍从提问、执行、到产出、再到润色的闭环流程;
  • 最后,我们梳理了一些能让研究效果事半功倍的实用技巧。

DeerFlow的价值,不在于它能回答一个问题,而在于它能帮你系统性地解决一个问题。它把原本需要数小时甚至数天的信息搜集、分析、写作工作,压缩到了几分钟之内。更重要的是,它把这个过程变得透明、可控、可学习。

现在,你已经拥有了开启深度研究的钥匙。下一步,就是把它用起来。找一个你最近一直想搞懂、但又迟迟没动手的领域,向DeerFlow提出你的第一个问题吧。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Read more

没显卡怎么玩AI绘画?NewBie-image-Exp0.1云端镜像2块钱搞定

没显卡怎么玩AI绘画?NewBie-image-Exp0.1云端镜像2块钱搞定 你是不是也和我一样,某天刷推特突然看到同行用AI生成了一张超精致的日系角色图——发色渐变自然、服装细节拉满、眼神光都带着情绪,心里“咯噔”一下:这我也想做啊! 可一查教程,清一色写着“需要NVIDIA显卡”“推荐RTX 4060以上”,再上京东一看价格,好家伙,五千多起步。而你的工作主力机偏偏是台轻薄MacBook,连个独立显卡都没有,只能干瞪眼。 别急,今天我就来告诉你一个不用买显卡、不折腾本地环境、2块钱就能玩转AI绘画的神仙方案:使用ZEEKLOG星图平台上的 NewBie-image-Exp0.1 云端镜像,一键部署,直接开画! 这个镜像专为动漫风格图像生成打造,基于Next-DiT架构,拥有35亿参数规模,在生成二次元角色方面表现极其出色。更关键的是,它支持XML结构化提示词,能精准控制角色特征、动作、场景甚至光影氛围,特别适合插画师、原画爱好者、同人创作者这类对细节要求高的用户。 而且整个过程完全在云端完成,你只需要一台能上网的电脑(哪怕是MacBook Air),就能享受高性能GPU

从0开始学AI绘画:麦橘超然完整学习路径

从0开始学AI绘画:麦橘超然完整学习路径 1. 为什么选麦橘超然?中低显存设备也能玩转高质量AI绘画 你是不是也遇到过这些情况: * 想试试最新的Flux模型,但手头只有RTX 3060(12GB)或RTX 4070(12GB),一加载就显存爆满; * 下载了几个WebUI,界面花里胡哨,参数多到眼花,调了半小时只生成一张模糊图; * 看别人发的赛博朋克城市、水墨山水、胶片人像惊艳不已,自己输入同样提示词却出不来效果; * 想离线使用、保护隐私、不依赖网络,但部署教程动辄几十步,光环境配置就卡半天。 麦橘超然——这个听起来带点江湖气的名字,其实是一套真正为普通人设计的AI绘画方案。它不是又一个“技术炫技型”项目,而是一个把复杂技术藏在背后、把简单体验交给用户的务实工具。 核心价值就三点: * 真·低门槛:不用懂量化、不用配CUDA版本、不用手动下载模型,镜像已预装全部依赖和权重; * 真·省显存:靠float8量化+CPU卸载双保险,8GB显存GPU也能稳稳跑起来,RTX 3060/4060/

AI绘画新选择!Z-Image-Turbo真实使用体验报告

AI绘画新选择!Z-Image-Turbo真实使用体验报告 你有没有过这样的经历:输入一段精心打磨的提示词,点击生成,然后盯着进度条数秒——等来的却是一张构图失衡、手部畸形、文字模糊的图?或者更糟:显卡风扇狂转,温度飙升,而模型还在第37步缓慢爬行……直到你默默关掉网页,打开手机刷短视频。 这不是你的错。是工具不够好。 最近两周,我把Z-Image-Turbo装进日常工作流,从电商海报到公众号配图,从产品概念草图到中文文案配图,每天生成不下50张图。它没让我再等过3秒以上,也没让我的RTX 4090显存爆过一次红。更重要的是——它第一次让我觉得,AI绘画这件事,真的可以“不折腾”。 这不是又一个参数炫技的模型,也不是套壳包装的云服务。Z-Image-Turbo是阿里通义实验室开源的真正为实用而生的文生图引擎:8步出图、16GB显存跑满、中英文提示原生理解、照片级细节还原、Gradio界面开箱即用。它不追求“最惊艳”,但每一张图都稳、准、快、实。 下面这份报告,没有PPT式术语堆砌,没有实验室指标截图,只有我亲手敲过的命令、截过的界面、对比过的图、

Qwen2.5-1.5B实战:手把手教你打造本地化AI写作助手

Qwen2.5-1.5B实战:手把手教你打造本地化AI写作助手 你是否曾想过,不依赖任何云服务、不上传一句对话、不担心数据泄露,就能在自己电脑上运行一个真正懂你、会写作、能思考的AI助手?不是试用版,不是网页端限制版,而是完完全全属于你的——模型文件存本地、推理过程跑本地、所有文字只在你设备里流转。 今天要介绍的,就是这样一个“轻量但靠谱”的落地方案:基于阿里通义千问最新发布的 Qwen2.5-1.5B-Instruct 模型构建的本地智能对话助手。它只有15亿参数,却能在一块入门级GPU(甚至纯CPU)上流畅运行;它没有炫酷的多模态能力,但能把文案写得自然、把代码讲得清楚、把知识答得准确;它不追求128K上下文,却把每一轮对话都接得连贯、稳当、不丢上下文。 这不是概念演示,也不是实验室玩具。它是一套开箱即用、零配置门槛、专为日常写作与轻量知识交互设计的本地AI助手。接下来,我会像带一位刚买回新笔记本的朋友那样,一步步带你完成从环境准备到写出第一段高质量文案的全过程。 1. 为什么是Qwen2.5-1.5B?