MCPHost:连接大模型与本地工具的桥梁
MCPHost 是一款轻量级的命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 以及自定义的 OpenAI 兼容接口。本次实践以自建 DeepSeek v3 模型为例,演示如何打通 Time MCP 服务。
项目源码:GitHub - mark3labs/mcphost
快速上手
安装非常直接,无需复杂配置。官网提供了 Windows、Linux 和 macOS 的预编译压缩包。
下载对应系统的版本后解压至工作目录即可运行。若希望全局调用,可将目录加入系统 PATH 环境变量。使用前请确保已安装 uv 和 Node.js 环境,这是运行部分 MCP 服务器的前置依赖。
配置与服务启动
在命令行中创建 mcp.json 配置文件来定义可用的工具。例如,创建一个时间服务配置:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
接下来需要指定 AI 服务的地址。你可以使用本地搭建的 API 网关(如 http://192.168.1.5:1337),也可以接入 OpenAI、硅基流动等提供的 API 服务。
使用以下命令启动 MCPHost,它将加载配置并进入交互模式:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
进入界面后,直接输入问题即可。例如询问当前时间,工具会自动调用配置的 MCP 服务返回结果。
常用指令与调试
在交互界面内,可以通过内置指令管理会话:
/help:查看帮助信息/tools:列出当前可用工具/servers:查看已配置的服务/history:显示对话历史- :退出程序


