小巧的 MCPHost
MCPHost 是一款基于命令行的大模型上下文协议(MCP)主机应用,旨在让大型语言模型(LLM)通过标准协议与外部工具进行交互。目前支持 Claude、Ollama 以及本地部署的 DeepSeek 等模型。
下载安装
MCPHost 使用非常便捷,无需复杂的编译过程。从 GitHub Release 页面下载对应操作系统的压缩包,解压后即可直接使用。
- Windows/Linux/macOS:官网提供三个系统的二进制包。
- 前置依赖:需预先安装好
uv和Node.js环境。
建议将解压后的目录加入系统 PATH 环境变量,以便在任意位置调用指令。
配置与交互实践
创建 MCP 配置文件
在工作目录下创建一个名为 mcp.json 的配置文件,用于定义可用的 MCP 服务。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
连接 AI 服务器
你需要准备一个可访问的 AI API 服务地址(如本地搭建的 Ollama 或第三方 API)。启动命令如下:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://<server_ip>:1337 --config mcp.json
执行后进入交互界面,即可输入自然语言指令。例如询问当前时间。
常用指令
进入交互模式后,可以使用内置命令查看帮助或管理工具:
/help:显示帮助信息。/tools:列出所有可用工具。/servers:查看已配置的 MCP 服务。/history:显示对话历史。/quit:退出程序。
若需查看命令行参数帮助,可运行 mcphost -h,其中 -m 参数用于指定模型,格式为 provider:modelname。


