小巧的 MCPHost
MCPHost 是一款轻量级命令行工具,旨在让大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 以及本地部署的 DeepSeek 等多种模型接入。本次实践基于自建环境,成功跑通了 Time MCP 服务。
下载安装
MCPHost 使用非常便捷,无需复杂编译,直接下载解压即可运行。官方仓库提供了 Windows、Linux 和 macOS 三个平台的压缩包:
https://github.com/mark3labs/mcphost/releases/tag/v0.4.4
以 Windows 为例,下载压缩包并解压至工作目录后,即可直接使用可执行文件。若希望在任何路径调用,可将该目录加入系统 PATH 环境变量。
前置依赖方面,建议先安装好 uv 包管理器和 Node.js 环境。
MCPHost 交互实践
配置 MCP 服务
在工作目录下创建一个 mcp.json 配置文件,定义需要调用的外部工具。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
接下来连接 AI 服务器。你可以使用本地搭建的服务(如 http://192.168.1.5:1337),也可以使用 OpenAI、Ollama、硅基流动或 LMStudio 等提供的 API。
启动命令如下,它将连通 AI 服务器,加载配置的 MCP 服务并进入交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
进入交互界面后,直接输入问题即可,例如询问当前时间。
常用指令
在命令行参数中,可以使用 -h 查看工具帮助信息,了解支持的模型格式和参数选项:
mcphost.exe -h
进入交互界面后,同样可以通过内置指令获取帮助:


