MCPHost 简介
MCPHost 是一个轻量级的命令行宿主应用,它让大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前支持 Claude 3.5 Sonnet、Ollama 以及本地部署的 DeepSeek 等模型。
项目地址:GitHub - mark3labs/mcphost
安装与环境准备
MCPHost 的使用非常便捷,无需复杂的编译过程,直接下载解压即可运行。官网提供了 Windows、Linux 和 macOS 三个系统的压缩包。
以 Windows 为例,下载对应版本的压缩包并解压到工作目录,即可直接使用可执行文件。如果希望在任何路径下调用,可以将该目录添加到系统 PATH 环境变量中。
前置依赖:
使用前建议先安装好 uv 和 Node.js,部分 MCP 服务(如时间服务)依赖这些环境。
配置与交互实践
1. 创建 MCP 配置文件
在命令行中创建一个名为 mcp.json 的配置文件,用于定义要调用的 MCP 服务器。例如,配置一个获取当前时间的服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
2. 连接 AI 服务
你需要一个可用的 AI API 接口。可以是自建的服务(如 Ollama、LM Studio),也可以是 OpenAI、硅基流动等提供的 API。
假设你的 AI 服务运行在 http://192.168.1.5:1337,启动命令如下:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
执行后进入交互界面,输入提示词即可开始对话。例如询问当前时间。
3. 常用指令
进入交互界面后,可以使用内置指令快速管理会话:
/help: 查看帮助信息/tools: 列出所有可用工具/servers: 查看已配置的 MCP 服务器


