Dify 入门系列(六):从 Web 到 API交付与集成,打通 AI 落地的“最后一公里”

大家好,我是独孤风。

在上一篇教程中,我们已经在Dify的“工作室”里,用5分钟“组装”出了一个懂公司规范的 “📊 数据治理知识助手”。 但是,现在有一个尴尬的问题: 这个超酷的AI助手,目前还被锁在Dify的“工厂”里。 只有拥有Dify账号、能登录后台的人才能看见它。这就像造了一辆法拉利,却只能在自家车库里空转,不能开上路去接送客户。

AI工程化的核心,不仅在于“造出来”,更在于“用起来”。 今天,我们要进行Dify入门篇的关键一课:交付与集成 (Delivery & Integration)。 我们将拆掉Dify工厂的围墙,通过三种方式,把这个AI助手“分发”到真实的世界中去:

  1. Web App:生成公开链接,发给老板直接用。
  2. 嵌入 (Embed):把AI挂载到公司内网或博客上。
  3. API (后端即服务):这是架构师的最爱,让业务系统直接调用AI能力。

不需要写代码,不需要搭服务器,我们将见证Dify作为 LLMOps平台 最强大的 BaaS (Backend as a Service) 能力。

|本文档版权归大数据流动所有,作者独孤风。文末联系作者,加入AI工程化学习社群

第一种交付:Web App(最快!3秒上路)

这是最简单、最直接的交付方式。Dify自带了一个精美的、适配移动端的网页前端。

🎯 场景:

  • 开会时,发给老板演示效果。
  • 做成二维码,贴在会议室墙上,供员工查询“数据规范”。

🛠️ 操作步骤:

  1. 从工作室进入你的 “📊 数据治理知识助手” 应用概览页。
  1. 在左侧菜单栏找到 “设置按钮”。
  2. 找到 “公开访问 URL”,点击开关,将其变成 “已启用”。
  3. 复制那个链接,发到你的手机上,或者发给同事。也可以复制二维码

👀 见证时刻: 你会发现,无需登录Dify账号,同事点开链接就能直接和AI对话! 这个页面简洁、专业,而且自适应手机屏幕。你甚至可以在“设置”里上传公司的Logo,修改背景颜色,让它看起来就像是公司专门找外包开发的产品。

💡 笔记: 不要小看这个URL。它背后已经封装好了鉴权、流式传输、错误处理等全套Web服务。在没有Dify之前,为了这一个页面,你可能需要一个前端工程师写两天Vue/React代码。

第二种交付:嵌入网站(最无感!融入业务)

如果公司已经有了内部门户(Intranet)、Wiki(如Confluence)或者你个人的技术博客,你想把AI助手变成网页右下角的那个 “悬浮气泡”,该怎么办? Dify 提供了 “脚本嵌入” 能力,把AI变成一个插件。

🎯 场景:

  • 在公司“数据治理管理平台”网页右下角,挂载一个AI客服,随时解答填报问题。
  • 在个人博客上挂一个“数字分身”。

🛠️ 操作步骤:

  1. 在应用右侧菜单,点击 “发布”下的下拉按钮。
  1. 你会看到三种模式,嵌入网页,悬浮,浏览器插件,选择 “悬浮窗 (Floating Chatbot)”。
  2. 复制页面上显示的那段 <script> 代码。
  3. 打开你公司网站的 HTML 源码(或者 WordPress/Hexo 的配置页),把这段代码粘贴到 <body> 标签结束前。

👀 见证时刻: 刷新你的公司网站,右下角奇迹般地出现了一个蓝色气泡图标。点开它,你的 “数据治理知识助手” 就浮现在那里,和原有系统完美融合。

第三种交付:API集成(最硬核!无限可能)

前两种只是“穿衣服”,这一种才是真正的“换骨”。 作为大数据工程师,我们深知:真正的企业级应用,数据和逻辑必须是解耦的。 Dify 的核心定义是 BaaS (Backend as a Service)。它把复杂的 RAG、模型调用、Prompt工程全部封装成了一个标准的 RESTful API。

🎯 场景:

  • 企业机器人:员工在群里 @机器人 提问,机器人调用 Dify API 回答。
  • ERP系统集成:在数据录入界面,点击“自动校验”,后端调用 Dify API 检查数据质量。
  • 私有化前端:你嫌弃 Dify 自带的 UI 不好看,自己用 React 写个全新的界面,后台连 Dify。

🛠️ 操作步骤:

  1. 在应用左侧菜单,点击 “访问 API (API Access)”。
  2. 点击右上角 “API 密钥”,创建一个新密钥,复制保存(千万别泄露)。
  3. 打开右上角的 “API 文档”。Dify 自动生成了针对当前应用的专属文档。
  4. 找到 POST /chat-messages 接口。

💻 极简测试(假装我们是后端开发): 打开你的终端(Terminal)或 Postman,输入以下命令(替换你的 api-key):

Bash

curl -X POST 'https://api.dify.ai/v1/chat-messages' \ --header 'Authorization: Bearer {YOUR_API_KEY}' \ --header 'Content-Type: application/json' \ --data-raw '{     "inputs": {},     "query": "什么是数据质量?",     "response_mode": "blocking",     "conversation_id": "",     "user": "dugufeng-test" }'

👀 见证时刻: 你会收到一段标准的 JSON 返回,里面有 DeepSeek 生成的回答 "数据质量是指..."。 拿到这个 JSON,你的 Java/Python 后端想怎么处理都行!

💡 安全警示: API Key 等同于你的账号密码。

千万不要把 API Key 直接写在前端 JavaScript 代码里(容易被浏览器F12抓包窃取)。

正确的做法:前端 -> 你的后端服务器(Node/Java/Go) -> Dify API。在你的后端服务器里中转请求,保护 Key 的安全。

总结:从“作坊”到“生态”

今天,我们没有修改Prompt,没有调整模型,但我们做了一件更重要事:连接。

通过 Web、嵌入、API 三种方式,我们将 Dify 这个“AI引擎”安装到了业务的“底盘”上:

  • Web App 解决了“快速演示”;
  • 嵌入 解决了“门户引流”;
  • API 解决了“深度业务集成”。

至此,我们的 Dify 入门篇 “基建四部曲”(部署、模型、知识库、应用交付)已全部完成。你已经具备了构建一个标准 RAG 问答机器人的全部能力。

但是,现实世界的业务往往比“一问一答”更复杂:

  • 如果我想让 AI 先去查一下 天气,再写周报?
  • 如果我想让 AI 把生成的 SQL 语句,先发给 Leader 审批,再执行?
  • 如果用户上传一张图片,我要先做 OCR 识别,再存入 Excel?

简单的“聊天助手”已经不够用了。 我们需要更强大的逻辑编排能力——工作流 (Workflow)。

📢 下期预告:Dify 进阶篇 —— 工作流 (Workflow)

下一篇,我们将告别简单的 Chatbot,进入 Dify 最迷人的“画布”模式。 我将带大家用“连线”的方式,来构建一个AI应用工作流,看 AI 如何处理复杂的多步逻辑。

一起折腾 Dify

如果你已经在用 Dify 做知识库、RAG 或者 Agent 应用,或者正准备学习AI工程化相关知识,肯定还会遇到一堆非常具体的工程问题。

我这边在搭一个「AI工程化学习群」,主要会做三件事:

  • 一起交流AI工程化的使用与运维经验。
  • 拆解多模态知识库、RAG 工作流在真实业务里的架构设计。
  • 不定期更新我在实际工作中沉淀的工作流模板和踩坑记录,方便大家直接拿去改。

当然Dify只是开始。过去,我做了10年的数据工程化。未来,我准备再做10年的AI工程化!

加入大数据流动,和我们一起为未来10年埋下种子~

想进群的同学,可以在公众号「大数据流动」后台回复【dify】两个字,自动获取进群方式。

也欢迎在评论区简单介绍一下你现在用 Dify 做什么场景,我会优先拉一些典型案例进群,一起对着实际业务做优化。

我是独孤风,我们下期见。

👇 戳左下角「阅读原文」,访问我们的开源仓库点个小星星吧 ⭐️

Read more

openclaw使用llama.cpp 本地大模型部署教程

openclaw使用llama.cpp 本地大模型部署教程

openclaw使用llama.cpp 本地大模型部署教程 本教程基于实际操作整理,适用于 Windows WSL2 环境 全程使用 openclaw 帮我搭建大模型 一、环境准备 1. 硬件要求 显卡推荐模型显存占用GTX 1050 Ti (4GB)Qwen2.5-3B Q4~2.5GBRTX 4060 (8GB)Qwen2.5-7B Q4~5GBRTX 4090 (24GB)Qwen2.5-32B Q4~20GB 2. 安装编译工具(WSL Ubuntu) sudoapt update sudoaptinstall -y cmake build-essential 二、下载和编译 llama.cpp

终极Elden Ring AI绘画指南:从零开始掌握黑暗奇幻艺术创作

终极Elden Ring AI绘画指南:从零开始掌握黑暗奇幻艺术创作 【免费下载链接】elden-ring-diffusion 项目地址: https://ai.gitcode.com/hf_mirrors/nitrosocke/elden-ring-diffusion 想要创作出《艾尔登法环》同款黑暗奇幻风格的艺术作品吗?Elden Ring Diffusion是基于Stable Diffusion架构的AI绘画模型,专门针对《艾尔登法环》游戏的美术风格进行了深度优化。通过本指南,您将快速掌握如何使用这一强大工具,创作出具有魂系美学特色的专业级图像。 快速入门:三步启动你的AI绘画之旅 第一步:环境准备与模型获取 首先需要克隆项目仓库并获取模型文件: git clone https://gitcode.com/hf_mirrors/nitrosocke/elden-ring-diffusion cd elden-ring-diffusion 项目包含完整的模型文件结构,其中eldenRing-v3-pruned.ckpt是核心模型文件,体积仅为4.2GB,比完整版节

Unsloth LLaMA Factory 大语言模型微调工具对比比较 主打极致速度与显存优化*适合单卡/少卡快速迭代 代码/低代码、全场景、多模型兼容**

Unsloth 主打极致速度与显存优化,适合单卡/少卡快速迭代;LLaMA Factory 主打零代码/低代码、全场景、多模型兼容,适合新手与企业级一站式微调。下面从核心定位、性能、功能、上手、适用场景等维度详细对比。 一、核心定位与本质区别 维度UnslothLLaMA Factory核心定位单卡/少卡微调加速引擎,专注性能优化一站式微调平台,全流程、全场景、低门槛设计理念用底层算子优化(Triton)榨干GPU性能封装复杂流程,降低使用门槛,覆盖全训练范式与HF关系兼容HF生态,是加速插件(可嵌入其他框架)基于HF生态构建,是完整训练框架开源协议Apache-2.0Apache-2.0 二、性能对比(单卡场景) 指标UnslothLLaMA Factory训练速度比标准HF快 2–5倍(核心优势)接近标准HF,比Unsloth慢显存占用降低 50%–80%(QLoRA下更明显)降低 ~70%

企业微信集成LangBot通信机器人的实战指南

1. 为什么你需要一个企业微信智能机器人? 如果你在企业里工作,每天是不是都要在微信和企业微信之间来回切换?同事发来一个文件,你得下载、打开、再转发;老板在群里问个数据,你得翻半天聊天记录,或者临时去查系统。更别提那些重复性的问题,比如“公司WiFi密码是多少?”“报销流程怎么走?”,每天回答几十遍,人都麻了。 这就是我想跟你聊聊 LangBot 的原因。它不是一个简单的自动回复工具,而是一个能真正“理解”你说话的通信机器人。你可以把它想象成一位24小时在线、精通公司所有业务的超级助理。把它集成到企业微信里,你的团队就拥有了一个随时待命的智能中枢。 我自己的团队在用了LangBot之后,变化是实实在在的。新员工入职,不用再手把手教,直接@机器人问就行;技术同学排查问题,可以快速让机器人查询历史文档和代码片段;销售同事需要客户资料,一句话就能调出来。它把我们从繁琐的信息查找和重复应答中解放出来,让大家能更专注于创造性的工作。 这个指南,就是把我踩过的坑、试出来的最佳路径,原原本本地分享给你。我会从零开始,带你完成从服务器部署、LangBot安装,到企业微信机器人创建、双向通信调试