Dify 入门系列(六):从 Web 到 API交付与集成,打通 AI 落地的“最后一公里”

大家好,我是独孤风。

在上一篇教程中,我们已经在Dify的“工作室”里,用5分钟“组装”出了一个懂公司规范的 “📊 数据治理知识助手”。 但是,现在有一个尴尬的问题: 这个超酷的AI助手,目前还被锁在Dify的“工厂”里。 只有拥有Dify账号、能登录后台的人才能看见它。这就像造了一辆法拉利,却只能在自家车库里空转,不能开上路去接送客户。

AI工程化的核心,不仅在于“造出来”,更在于“用起来”。 今天,我们要进行Dify入门篇的关键一课:交付与集成 (Delivery & Integration)。 我们将拆掉Dify工厂的围墙,通过三种方式,把这个AI助手“分发”到真实的世界中去:

  1. Web App:生成公开链接,发给老板直接用。
  2. 嵌入 (Embed):把AI挂载到公司内网或博客上。
  3. API (后端即服务):这是架构师的最爱,让业务系统直接调用AI能力。

不需要写代码,不需要搭服务器,我们将见证Dify作为 LLMOps平台 最强大的 BaaS (Backend as a Service) 能力。

|本文档版权归大数据流动所有,作者独孤风。文末联系作者,加入AI工程化学习社群

第一种交付:Web App(最快!3秒上路)

这是最简单、最直接的交付方式。Dify自带了一个精美的、适配移动端的网页前端。

🎯 场景:

  • 开会时,发给老板演示效果。
  • 做成二维码,贴在会议室墙上,供员工查询“数据规范”。

🛠️ 操作步骤:

  1. 从工作室进入你的 “📊 数据治理知识助手” 应用概览页。
  1. 在左侧菜单栏找到 “设置按钮”。
  2. 找到 “公开访问 URL”,点击开关,将其变成 “已启用”。
  3. 复制那个链接,发到你的手机上,或者发给同事。也可以复制二维码

👀 见证时刻: 你会发现,无需登录Dify账号,同事点开链接就能直接和AI对话! 这个页面简洁、专业,而且自适应手机屏幕。你甚至可以在“设置”里上传公司的Logo,修改背景颜色,让它看起来就像是公司专门找外包开发的产品。

💡 笔记: 不要小看这个URL。它背后已经封装好了鉴权、流式传输、错误处理等全套Web服务。在没有Dify之前,为了这一个页面,你可能需要一个前端工程师写两天Vue/React代码。

第二种交付:嵌入网站(最无感!融入业务)

如果公司已经有了内部门户(Intranet)、Wiki(如Confluence)或者你个人的技术博客,你想把AI助手变成网页右下角的那个 “悬浮气泡”,该怎么办? Dify 提供了 “脚本嵌入” 能力,把AI变成一个插件。

🎯 场景:

  • 在公司“数据治理管理平台”网页右下角,挂载一个AI客服,随时解答填报问题。
  • 在个人博客上挂一个“数字分身”。

🛠️ 操作步骤:

  1. 在应用右侧菜单,点击 “发布”下的下拉按钮。
  1. 你会看到三种模式,嵌入网页,悬浮,浏览器插件,选择 “悬浮窗 (Floating Chatbot)”。
  2. 复制页面上显示的那段 <script> 代码。
  3. 打开你公司网站的 HTML 源码(或者 WordPress/Hexo 的配置页),把这段代码粘贴到 <body> 标签结束前。

👀 见证时刻: 刷新你的公司网站,右下角奇迹般地出现了一个蓝色气泡图标。点开它,你的 “数据治理知识助手” 就浮现在那里,和原有系统完美融合。

第三种交付:API集成(最硬核!无限可能)

前两种只是“穿衣服”,这一种才是真正的“换骨”。 作为大数据工程师,我们深知:真正的企业级应用,数据和逻辑必须是解耦的。 Dify 的核心定义是 BaaS (Backend as a Service)。它把复杂的 RAG、模型调用、Prompt工程全部封装成了一个标准的 RESTful API。

🎯 场景:

  • 企业机器人:员工在群里 @机器人 提问,机器人调用 Dify API 回答。
  • ERP系统集成:在数据录入界面,点击“自动校验”,后端调用 Dify API 检查数据质量。
  • 私有化前端:你嫌弃 Dify 自带的 UI 不好看,自己用 React 写个全新的界面,后台连 Dify。

🛠️ 操作步骤:

  1. 在应用左侧菜单,点击 “访问 API (API Access)”。
  2. 点击右上角 “API 密钥”,创建一个新密钥,复制保存(千万别泄露)。
  3. 打开右上角的 “API 文档”。Dify 自动生成了针对当前应用的专属文档。
  4. 找到 POST /chat-messages 接口。

💻 极简测试(假装我们是后端开发): 打开你的终端(Terminal)或 Postman,输入以下命令(替换你的 api-key):

Bash

curl -X POST 'https://api.dify.ai/v1/chat-messages' \ --header 'Authorization: Bearer {YOUR_API_KEY}' \ --header 'Content-Type: application/json' \ --data-raw '{     "inputs": {},     "query": "什么是数据质量?",     "response_mode": "blocking",     "conversation_id": "",     "user": "dugufeng-test" }'

👀 见证时刻: 你会收到一段标准的 JSON 返回,里面有 DeepSeek 生成的回答 "数据质量是指..."。 拿到这个 JSON,你的 Java/Python 后端想怎么处理都行!

💡 安全警示: API Key 等同于你的账号密码。

千万不要把 API Key 直接写在前端 JavaScript 代码里(容易被浏览器F12抓包窃取)。

正确的做法:前端 -> 你的后端服务器(Node/Java/Go) -> Dify API。在你的后端服务器里中转请求,保护 Key 的安全。

总结:从“作坊”到“生态”

今天,我们没有修改Prompt,没有调整模型,但我们做了一件更重要事:连接。

通过 Web、嵌入、API 三种方式,我们将 Dify 这个“AI引擎”安装到了业务的“底盘”上:

  • Web App 解决了“快速演示”;
  • 嵌入 解决了“门户引流”;
  • API 解决了“深度业务集成”。

至此,我们的 Dify 入门篇 “基建四部曲”(部署、模型、知识库、应用交付)已全部完成。你已经具备了构建一个标准 RAG 问答机器人的全部能力。

但是,现实世界的业务往往比“一问一答”更复杂:

  • 如果我想让 AI 先去查一下 天气,再写周报?
  • 如果我想让 AI 把生成的 SQL 语句,先发给 Leader 审批,再执行?
  • 如果用户上传一张图片,我要先做 OCR 识别,再存入 Excel?

简单的“聊天助手”已经不够用了。 我们需要更强大的逻辑编排能力——工作流 (Workflow)。

📢 下期预告:Dify 进阶篇 —— 工作流 (Workflow)

下一篇,我们将告别简单的 Chatbot,进入 Dify 最迷人的“画布”模式。 我将带大家用“连线”的方式,来构建一个AI应用工作流,看 AI 如何处理复杂的多步逻辑。

一起折腾 Dify

如果你已经在用 Dify 做知识库、RAG 或者 Agent 应用,或者正准备学习AI工程化相关知识,肯定还会遇到一堆非常具体的工程问题。

我这边在搭一个「AI工程化学习群」,主要会做三件事:

  • 一起交流AI工程化的使用与运维经验。
  • 拆解多模态知识库、RAG 工作流在真实业务里的架构设计。
  • 不定期更新我在实际工作中沉淀的工作流模板和踩坑记录,方便大家直接拿去改。

当然Dify只是开始。过去,我做了10年的数据工程化。未来,我准备再做10年的AI工程化!

加入大数据流动,和我们一起为未来10年埋下种子~

想进群的同学,可以在公众号「大数据流动」后台回复【dify】两个字,自动获取进群方式。

也欢迎在评论区简单介绍一下你现在用 Dify 做什么场景,我会优先拉一些典型案例进群,一起对着实际业务做优化。

我是独孤风,我们下期见。

👇 戳左下角「阅读原文」,访问我们的开源仓库点个小星星吧 ⭐️

Read more

OpenCode 完全使用指南:开源 AI 编程助手入门到精通

OpenCode 完全使用指南:开源 AI 编程助手入门到精通 本教程基于 OpenCode 官方文档(https://opencode.ai/docs)和 GitHub 仓库(https://github.com/anomalyco/opencode)编写,适合零基础新手入门。 📚 目录 1. 什么是 OpenCode 2. 安装指南 3. 快速开始 4. 配置文件详解 5. Provider 配置 6. TUI 终端界面使用 7. Agent 系统 8. 自定义命令 9. 快捷键配置 10. MCP 服务器 11. LSP

从零开始学AI--AI知识点扫盲

从零开始学AI--AI知识点扫盲

前言 春节假期的小小震撼,外行都在讨论AI,想从中赚一笔,现在的AI应用80%内卷且无意义。所以做技术的并不感冒,毕竟日常接触很多了,更像是必然等到的老友,效率的提升并未解放任何劳动力,徒增了更多无谓的焦虑以及适应的痛苦,虽然偶尔带来那么一点点小惊喜。不过这么久了,冒出来的概念很多,眼花缭乱,导致有些许人装逼时,我像是个新兵蛋子,幸有Kimi,躺在床上无事,于是问答一波,以此记录。。。 AI大模型(LLM)的基本概念 一、当前主流AI大模型格局(2025年) 1.第一梯队:国际主流模型 模型厂商核心优势典型应用场景GPT-4.1 / GPT-5OpenAI100万token超长上下文、生态最完善、通用性最强长文档分析、复杂对话、企业级应用Claude 4 (Opus/Sonnet)Anthropic代码生成能力顶尖(SWE-bench 74.5%)、混合推理架构、安全性高软件开发、代码重构、企业级安全场景Gemini 2.5

Harness Engineering工程化教程(非常详细),AI Agent复杂长任务从入门到精通,收藏这一篇就够了!

Harness Engineering工程化教程(非常详细),AI Agent复杂长任务从入门到精通,收藏这一篇就够了!

Views are my own. “Yet Another Chapter”,Generated by Google Lyria OpenAI 的一个团队在五个月内用 Codex 写了一百万行代码,三个工程师平均每天合并 3.5 个 PR,没有一行代码是工程师手写的。Anthropic 的 Claude Code 能连续工作数天构建完整应用。LangChain 的 Coding Agent 在 Terminal Bench 2.0 上从 52.8% 跃升至 66.5%,却只改了 harness,模型没动。 随着 Coding Agent 能力过去一段时间的突飞猛进,软件工程师的工作变了:从“

微调模型成本太高,用RAG技术,低成本实现AI升级

微调模型成本太高,用RAG技术,低成本实现AI升级

文章目录 * 大模型 RAG 技术深度解析:从入门到进阶 * 一、大语言模型(LLM)的三大痛点 * 1.1 幻觉问题:一本正经地胡说八道 * 1.2 时效性问题:知识更新不及时 * 1.3 数据安全问题:敏感信息泄露风险 * 二、RAG 技术:检索增强生成 * 2.1 RAG 的定义 * 2.2 RAG 的架构 * 2.2.1 检索器模块 * 2.2.2 生成器模块 * 三、使用 RAG 的八大优势 * 3.1 可扩展性:减少模型大小和训练成本 * 3.