Dify 入门系列(六):从 Web 到 API交付与集成,打通 AI 落地的“最后一公里”

大家好,我是独孤风。

在上一篇教程中,我们已经在Dify的“工作室”里,用5分钟“组装”出了一个懂公司规范的 “📊 数据治理知识助手”。 但是,现在有一个尴尬的问题: 这个超酷的AI助手,目前还被锁在Dify的“工厂”里。 只有拥有Dify账号、能登录后台的人才能看见它。这就像造了一辆法拉利,却只能在自家车库里空转,不能开上路去接送客户。

AI工程化的核心,不仅在于“造出来”,更在于“用起来”。 今天,我们要进行Dify入门篇的关键一课:交付与集成 (Delivery & Integration)。 我们将拆掉Dify工厂的围墙,通过三种方式,把这个AI助手“分发”到真实的世界中去:

  1. Web App:生成公开链接,发给老板直接用。
  2. 嵌入 (Embed):把AI挂载到公司内网或博客上。
  3. API (后端即服务):这是架构师的最爱,让业务系统直接调用AI能力。

不需要写代码,不需要搭服务器,我们将见证Dify作为 LLMOps平台 最强大的 BaaS (Backend as a Service) 能力。

|本文档版权归大数据流动所有,作者独孤风。文末联系作者,加入AI工程化学习社群

第一种交付:Web App(最快!3秒上路)

这是最简单、最直接的交付方式。Dify自带了一个精美的、适配移动端的网页前端。

🎯 场景:

  • 开会时,发给老板演示效果。
  • 做成二维码,贴在会议室墙上,供员工查询“数据规范”。

🛠️ 操作步骤:

  1. 从工作室进入你的 “📊 数据治理知识助手” 应用概览页。
  1. 在左侧菜单栏找到 “设置按钮”。
  2. 找到 “公开访问 URL”,点击开关,将其变成 “已启用”。
  3. 复制那个链接,发到你的手机上,或者发给同事。也可以复制二维码

👀 见证时刻: 你会发现,无需登录Dify账号,同事点开链接就能直接和AI对话! 这个页面简洁、专业,而且自适应手机屏幕。你甚至可以在“设置”里上传公司的Logo,修改背景颜色,让它看起来就像是公司专门找外包开发的产品。

💡 笔记: 不要小看这个URL。它背后已经封装好了鉴权、流式传输、错误处理等全套Web服务。在没有Dify之前,为了这一个页面,你可能需要一个前端工程师写两天Vue/React代码。

第二种交付:嵌入网站(最无感!融入业务)

如果公司已经有了内部门户(Intranet)、Wiki(如Confluence)或者你个人的技术博客,你想把AI助手变成网页右下角的那个 “悬浮气泡”,该怎么办? Dify 提供了 “脚本嵌入” 能力,把AI变成一个插件。

🎯 场景:

  • 在公司“数据治理管理平台”网页右下角,挂载一个AI客服,随时解答填报问题。
  • 在个人博客上挂一个“数字分身”。

🛠️ 操作步骤:

  1. 在应用右侧菜单,点击 “发布”下的下拉按钮。
  1. 你会看到三种模式,嵌入网页,悬浮,浏览器插件,选择 “悬浮窗 (Floating Chatbot)”。
  2. 复制页面上显示的那段 <script> 代码。
  3. 打开你公司网站的 HTML 源码(或者 WordPress/Hexo 的配置页),把这段代码粘贴到 <body> 标签结束前。

👀 见证时刻: 刷新你的公司网站,右下角奇迹般地出现了一个蓝色气泡图标。点开它,你的 “数据治理知识助手” 就浮现在那里,和原有系统完美融合。

第三种交付:API集成(最硬核!无限可能)

前两种只是“穿衣服”,这一种才是真正的“换骨”。 作为大数据工程师,我们深知:真正的企业级应用,数据和逻辑必须是解耦的。 Dify 的核心定义是 BaaS (Backend as a Service)。它把复杂的 RAG、模型调用、Prompt工程全部封装成了一个标准的 RESTful API。

🎯 场景:

  • 企业机器人:员工在群里 @机器人 提问,机器人调用 Dify API 回答。
  • ERP系统集成:在数据录入界面,点击“自动校验”,后端调用 Dify API 检查数据质量。
  • 私有化前端:你嫌弃 Dify 自带的 UI 不好看,自己用 React 写个全新的界面,后台连 Dify。

🛠️ 操作步骤:

  1. 在应用左侧菜单,点击 “访问 API (API Access)”。
  2. 点击右上角 “API 密钥”,创建一个新密钥,复制保存(千万别泄露)。
  3. 打开右上角的 “API 文档”。Dify 自动生成了针对当前应用的专属文档。
  4. 找到 POST /chat-messages 接口。

💻 极简测试(假装我们是后端开发): 打开你的终端(Terminal)或 Postman,输入以下命令(替换你的 api-key):

Bash

curl -X POST 'https://api.dify.ai/v1/chat-messages' \ --header 'Authorization: Bearer {YOUR_API_KEY}' \ --header 'Content-Type: application/json' \ --data-raw '{     "inputs": {},     "query": "什么是数据质量?",     "response_mode": "blocking",     "conversation_id": "",     "user": "dugufeng-test" }'

👀 见证时刻: 你会收到一段标准的 JSON 返回,里面有 DeepSeek 生成的回答 "数据质量是指..."。 拿到这个 JSON,你的 Java/Python 后端想怎么处理都行!

💡 安全警示: API Key 等同于你的账号密码。

千万不要把 API Key 直接写在前端 JavaScript 代码里(容易被浏览器F12抓包窃取)。

正确的做法:前端 -> 你的后端服务器(Node/Java/Go) -> Dify API。在你的后端服务器里中转请求,保护 Key 的安全。

总结:从“作坊”到“生态”

今天,我们没有修改Prompt,没有调整模型,但我们做了一件更重要事:连接。

通过 Web、嵌入、API 三种方式,我们将 Dify 这个“AI引擎”安装到了业务的“底盘”上:

  • Web App 解决了“快速演示”;
  • 嵌入 解决了“门户引流”;
  • API 解决了“深度业务集成”。

至此,我们的 Dify 入门篇 “基建四部曲”(部署、模型、知识库、应用交付)已全部完成。你已经具备了构建一个标准 RAG 问答机器人的全部能力。

但是,现实世界的业务往往比“一问一答”更复杂:

  • 如果我想让 AI 先去查一下 天气,再写周报?
  • 如果我想让 AI 把生成的 SQL 语句,先发给 Leader 审批,再执行?
  • 如果用户上传一张图片,我要先做 OCR 识别,再存入 Excel?

简单的“聊天助手”已经不够用了。 我们需要更强大的逻辑编排能力——工作流 (Workflow)。

📢 下期预告:Dify 进阶篇 —— 工作流 (Workflow)

下一篇,我们将告别简单的 Chatbot,进入 Dify 最迷人的“画布”模式。 我将带大家用“连线”的方式,来构建一个AI应用工作流,看 AI 如何处理复杂的多步逻辑。

一起折腾 Dify

如果你已经在用 Dify 做知识库、RAG 或者 Agent 应用,或者正准备学习AI工程化相关知识,肯定还会遇到一堆非常具体的工程问题。

我这边在搭一个「AI工程化学习群」,主要会做三件事:

  • 一起交流AI工程化的使用与运维经验。
  • 拆解多模态知识库、RAG 工作流在真实业务里的架构设计。
  • 不定期更新我在实际工作中沉淀的工作流模板和踩坑记录,方便大家直接拿去改。

当然Dify只是开始。过去,我做了10年的数据工程化。未来,我准备再做10年的AI工程化!

加入大数据流动,和我们一起为未来10年埋下种子~

想进群的同学,可以在公众号「大数据流动」后台回复【dify】两个字,自动获取进群方式。

也欢迎在评论区简单介绍一下你现在用 Dify 做什么场景,我会优先拉一些典型案例进群,一起对着实际业务做优化。

我是独孤风,我们下期见。

👇 戳左下角「阅读原文」,访问我们的开源仓库点个小星星吧 ⭐️

Read more

1.2 Whisper的安装与配置 | 《Whisper语音识别实战专栏》

引言 在前一篇文章中,我们了解了Whisper的基本概念、发展背景和主要特点。现在,我们将介绍Whisper的安装与配置方法,帮助您快速上手使用Whisper。 Whisper的安装相对简单,主要包括Python环境配置、Whisper库安装和FFmpeg配置三个步骤。在本文章中,我们将详细介绍每个步骤的具体操作方法,并提供常见问题的解决方案。 系统要求 在安装Whisper之前,您需要确保您的系统满足以下要求: * 操作系统:Windows、macOS或Linux * Python版本:3.8-3.11 * PyTorch版本:支持最新版本的PyTorch * 硬件要求: * CPU:支持x86_64架构的处理器 * GPU(可选):支持CUDA的NVIDIA GPU(用于加速模型推理) * 内存:至少4GB RAM,推荐8GB以上 安装步骤 1. 配置Python环境 首先,您需要安装Python环境。如果您已经安装了Python 3.8-3.11,可以跳过这一步。 1.1

ComfyUI Manager高效管理指南:提升AI绘画工作流的核心工具

ComfyUI Manager高效管理指南:提升AI绘画工作流的核心工具 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager ComfyUI Manager是AI绘画爱好者不可或缺的效率工具,它通过集中管理插件、模型和环境配置,帮助用户轻松扩展ComfyUI功能,优化工作流程。本文将从功能价值、场景化应用到问题解决,全面介绍如何利用这一工具提升创作效率。 评估环境价值:系统兼容性检查 在开始使用ComfyUI Manager前,确保系统环境满足基本要求是避免后续问题的关键步骤。这不仅关系到工具能否正常运行,也影响到后续插件和模型的兼容性。 执行系统兼容性验证 1. 检查Python版本 * 方法一:终端执行python --version或python3 --version 2. 验证Git安装状态 * 基础检查:git --version * 进阶验证:git config --global --list确认用户配置 3. 评估系统资

亲测Meta-Llama-3-8B-Instruct:8K上下文对话效果超出预期

亲测Meta-Llama-3-8B-Instruct:8K上下文对话效果超出预期 1. 引言:为何选择 Meta-Llama-3-8B-Instruct? 在当前开源大模型快速迭代的背景下,如何在有限算力条件下实现高质量的对话与指令执行能力,成为个人开发者和中小团队关注的核心问题。Meta 于 2024 年 4 月发布的 Meta-Llama-3-8B-Instruct 模型,凭借其 80 亿参数、单卡可运行、支持 8K 上下文以及 Apache 2.0 友好商用协议等特性,迅速成为轻量级部署场景下的热门选择。 本文基于实际部署经验,使用 vLLM + Open WebUI 构建本地推理服务,完整测试了该模型在长文本理解、多轮对话连贯性、代码生成及英文任务处理等方面的表现。结果显示,其综合表现不仅显著优于 Llama 2 系列,甚至在部分任务上接近 GPT-3.5 的体验水平,尤其适合用于英文对话系统、轻量级代码助手或教育类 AI

VScode Cline 中免费使用 gpt 5.4 和copilot 中的模型

VScode Cline 中免费使用 gpt 5.4 和copilot 中的模型

前提:vscode 安装 cline 插件(默认都会), gpt plus 账户(联系我获取), github copilot 会员权益账户(有教程链接) 一、通过授权登录 ChatGPT plus 账户,使用gpt-5.4 1、打开cline 设置; 2、API Provider选择:ChatGPT Subscription,授权登录即可;   3、显示如下即可使用gpt -5.4(1M上下文,相比与5.3-codex 400k 提升了1倍多); 二、使用github copilot 中的模型; 1、安装 github copilot 插件并登录你有会员权益的 github 账户;