小巧的 MCPHost
MCPHost 是一款轻量级的命令行工具,能让大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。目前它支持 Claude 3.5 Sonnet、Ollama 以及 OpenAI 等主流模型接口。本次实践基于本地部署的 DeepSeek V3 模型,成功跑通了 Time MCP 服务。
项目地址:https://github.com/mark3labs/mcphost
下载安装
MCPHost 的使用门槛很低,官方提供了 Windows、Linux 和 macOS 的压缩包,下载解压即可运行。
以 Windows 为例,直接解压到工作目录后,可执行文件便可以直接使用。如果希望在任何路径下调用,可以将该目录添加到系统 PATH 环境变量中。
前置依赖:
使用前请确保已安装 uv 和 nodejs,这是运行部分 MCP 服务器所必需的。
MCPHost 交互实践
配置 MCP 服务
我们可以在命令行下快速创建一个配置文件来定义可用的工具。例如,在工作目录下新建 mcp.json,内容如下:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
这个配置告诉 MCPHost,当需要时间信息时,通过 uvx 启动 mcp-server-time 服务,并指定时区为上海。
接下来是连接 AI 服务器。你可以使用自建的 API 服务(如 Ollama、LMStudio),也可以使用 OpenAI、硅基流动等提供的 API。假设你的 AI 服务运行在 http://192.168.1.5:1337,启动命令如下:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
执行后,程序会连通 AI 服务器,加载配置的 MCP 服务,并进入交互式对话界面。
常用指令
进入交互界面后,可以通过内置指令快速管理会话:
/help:查看帮助信息/tools:列出当前可用的工具



