Open WebUI 的 MCPo 项目(Model Context Protocol-to-OpenAPI Proxy Server)是一个旨在解决 AI 工具集成标准化难题的创新方案。随着大模型应用的发展,开发者常面临如何将复杂的 MCP 协议工具安全、高效地暴露为通用 HTTP 接口的挑战。MCPo 通过代理模式,将任何基于 MCP 的工具转换为兼容 OpenAPI 的 RESTful API,让 LLM 代理和应用程序能无缝调用。
核心优势
MCPo 的设计重点在于降低集成门槛并提升安全性:
- 即插即用:支持现有的 OpenAPI 工具、SDK 和用户界面,无需额外配置即可运行。
- 标准化传输:采用 HTTPS 协议,支持 JWT 和 API 密钥认证,保障通信安全。
- 文档自动化:内置 Swagger UI,自动生成交互式文档,方便调试与查看。
- 纯 HTTP 支持:摒弃复杂的套接字逻辑,简化开发流程。
工作原理
MCPo 的核心是动态发现 MCP 工具并生成对应的 REST 端点。启动后,它会自动提供 OpenAPI 文档,通常位于 http://localhost:8000/docs。用户可以直接通过 HTTP 客户端调用这些端点,或者在 Open WebUI 中直接集成使用。
环境搭建
要体验 MCPo,建议先准备好基础环境。如果你本地部署了 Ollama,可以先拉取一个模型,例如:
ollama run gemma3
接下来安装 MCPo 服务。推荐使用 uvx 或 pip 进行部署。注意区分安装命令与启动命令:
# 安装依赖
pip install mcpo
# 启动服务(指定端口和密钥)
uvx mcpo --port 8000 --api-key "top-secret" -- your_mcp_server_command
对于需要管理多个工具的复杂场景,可以通过配置文件来定义路由。例如同时启用内存服务和时间服务:
{
"mcpServers": {
"memory": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-memory"]
},
"time": {
"command": "uvx"


