43-dify案例分享-MCP-Server让工作流秒变第三方可调用服务

43-dify案例分享-MCP-Server让工作流秒变第三方可调用服务

1.前言

之前我们为大家介绍过MCP SSE插件,它能够支持MCP-server在Dify平台上的调用,从而帮助Dify与第三方平台提供的MCP-server进行无缝对接。有些小伙伴提出了疑问:既然Dify可以通过MCP SSE插件调用其他平台的MCP-server,那么Dify的工作流或Chatflow是否也能发布为MCP-server,供其他支持MCP client的工具使用呢?今天,我们将为大家介绍一款Dify插件——mcp-server,它能够实现这一功能,即将Dify的工作流或Chatflow发布为MCP-server,供其他第三方工具调用。

插件名字叫做MCP-server,我们在dify插件市场可以找到这个工具

image-20250417130824181

Mcp-server 是一个由 Dify 社区贡献的 Extension 类型插件。安装后,你可以把任何 Dify 应用转变成符合 MCP 标准的 Server Endpoint,供外部 MCP 客户端直接访问。它的主要功能包括:

  • **暴露为 MCP 工具:**将 Dify 应用抽象为单一 MCP 工具,供外部 MCP 客户端(如 Cursor、Claude Desktop、Cline,Windsurf、Dify 等)调用。
  • **利用 Dify Endpoint 功能:**用户创建应用 Endpoint 后,将获得唯一的 URL,外部 MCP 客户端可直接通过该 URL 连接。
  • **提供 MCP 服务:**插件在 Dify 插件环境中自动启动 HTTP 服务,基于 HTTP 和 SSE 协议,高效处理外部 MCP 客户端请求,包括协议握手、能力发现以及工具调用。

2.如何使用

我们在插件市场上安装好这个插件。安装好后可以在插件列表中查找到,如下图。

image-20250417131032122

env IP地址修改

接下来我们需要配置MCP-server,这个配置的地方我们需要注意,既然这个工具是对外提供服务的,那么我们就希望在互联网或者局域网实现访问。所以我们需要修改一下dify .env文件的配置,找到你本地电脑上的.env文件,这里我们方便讲解就拿官方的

https://github.com/langgenius/dify/blob/main/docker/.env.example 给大家介绍一下修改的地方

我们搜索到.env.example 文件 1001 行找到如下配置

image-20250417131439622

我们需要把 EXPOSE_PLUGIN_DEBUGGING_HOST 、ENDPOINT_URL_TEMPLATE 这2个地方的localhost 换成你的局域网IP或者公网IP

我的公网地址是14.103.204.132

原地址

PLUGIN_DEBUGGING_HOST=0.0.0.0 PLUGIN_DEBUGGING_PORT=5003EXPOSE_PLUGIN_DEBUGGING_HOST=localhost EXPOSE_PLUGIN_DEBUGGING_PORT=5003# If this key is changed, DIFY_INNER_API_KEY in plugin_daemon service must also be updated or agent node will fail.PLUGIN_DIFY_INNER_API_KEY=QaHbTe77CtuXmsfyhR7+vRjI/+XbV1AaFy691iy+kGDv2Jvy0/eAh8Y1 PLUGIN_DIFY_INNER_API_URL=http://api:5001 ENDPOINT_URL_TEMPLATE=http://localhost/e/{ hook_id}

修改后地址

PLUGIN_DEBUGGING_HOST=0.0.0.0 PLUGIN_DEBUGGING_PORT=5003EXPOSE_PLUGIN_DEBUGGING_HOST

Read more

Android实时语音通话实战:基于WebRTC与AI降噪的优化方案

快速体验 在开始今天关于 Android实时语音通话实战:基于WebRTC与AI降噪的优化方案 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 Android实时语音通话实战:基于WebRTC与AI降噪的优化方案 最近在开发一款社交应用时,遇到了Android实时语音通话的质量问题。用户反馈中频繁出现"听不清"、"有回音"、"

By Ne0inhk

Qwen3-VL-WEBUI进阶教程:MRoPE位置嵌入解析

Qwen3-VL-WEBUI进阶教程:MRoPE位置嵌入解析 1. 引言 1.1 Qwen3-VL-WEBUI 简介 Qwen3-VL-WEBUI 是基于阿里云最新开源多模态大模型 Qwen3-VL-4B-Instruct 构建的可视化交互界面,专为开发者、研究人员和AI爱好者设计,提供开箱即用的视觉-语言推理能力。该工具不仅集成了Qwen3系列最前沿的技术特性,还通过简洁直观的Web界面降低了使用门槛,支持图像理解、视频分析、GUI代理操作、代码生成等多种高阶功能。 作为Qwen系列迄今为止最强的视觉语言模型(Vision-Language Model, VLM),Qwen3-VL在文本生成、视觉感知、上下文长度、空间推理与多模态融合等方面实现了全面升级。其内置的 MRoPE(Multi-Rotation Position Embedding) 机制是支撑其长序列建模与跨模态对齐的核心技术之一,尤其在处理256K原生上下文乃至扩展至1M token的极端场景中表现卓越。 本教程将深入解析 MRoPE的位置嵌入原理,并结合 Qwen3-VL-WEBUI 的实际部署与应用,帮

By Ne0inhk

掌握Python Web日志管理:从监控到问题定位的实战指南

掌握Python Web日志管理:从监控到问题定位的实战指南 【免费下载链接】waitressWaitress - A WSGI server for Python 3 项目地址: https://gitcode.com/gh_mirrors/wa/waitress 在现代Python Web开发中,日志管理是确保应用稳定性和可维护性的关键环节。作为Python Web服务器的核心组件,完善的日志系统不仅能够实时监控服务器运行状态,还能在故障发生时提供精准的问题定位依据。本文将深入探讨如何构建一个高效的Python Web日志管理体系,从基础配置到高级分析,帮助开发者全面掌握日志监控的核心技术与最佳实践。 日志管理核心价值:为什么它对Python Web服务器至关重要 日志是Python Web应用的"神经系统",记录着服务器从启动到请求处理的每一个关键环节。一个精心设计的日志管理系统能够: * 提供完整的请求处理轨迹,加速问题诊断 * 记录系统资源使用情况,助力性能优化 * 追踪用户访问模式,支持业务决策 * 满足合规性要求,确保操作可审计 日志系统架构解析

By Ne0inhk
SciChart.js v5版本全新发布:为Web图表开发带来更高效体验

SciChart.js v5版本全新发布:为Web图表开发带来更高效体验

近日,SciChart 官方宣布发布 SciChart.js v5 版本,这是该 JavaScript 图表库系列的重要更新之一。在本次版本升级中,开发团队重点围绕性能优化、图表渲染效率提升和功能扩展等方面进行了改进,为前端数据可视化应用提供更流畅、更灵活的开发体验。 获取SciChart.js新版试用 核心性能提升 在 v5 版本中,SciChart.js 引入了对 WebAssembly SIMD(Single Instruction Multiple Data) 的支持,使图表引擎能够在较新处理器架构上更有效地执行并行计算任务。该特性在现代浏览器上默认启用,同时保留了不支持 SIMD 的兼容降级选项。 与此同时,SciChart 团队进一步优化了库文件体积,通过去除部分冗余代码,使 WebAssembly 文件整体更精简,从而缩短加载时间,提高首次初始化性能。整体初始化时间相比此前版本有所缩短,有助于提升用户启动图表的响应速度。 图表渲染体验改善 新版在常见图表类型的渲染效率上进行了系统性优化,包括堆叠柱状图、

By Ne0inhk