MCPHost 简介
MCPHost 是一个轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。目前支持 Claude、Ollama 以及本地部署的 DeepSeek 等模型。
安装与配置
该工具无需复杂安装,下载对应系统的压缩包解压即可使用。官网提供 Windows、Linux 和 macOS 版本。
前置依赖包括 uv 和 nodejs。以 Windows 为例,解压后直接运行可执行文件。若需全局调用,可将工作目录加入系统 PATH 环境变量。
配置文件示例
在工作目录下创建 mcp.json 配置文件,用于定义可用的 MCP 服务。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
启动交互
连接 AI 服务器并启动 MCP 服务。假设本地搭建的 API 服务地址为 http://192.168.1.5:1337,命令如下:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
启动后即可进入交互界面,输入提示词即可开始对话。
常用指令
在交互界面中,可以使用内置指令管理会话:
/help: 显示帮助信息/tools: 列出当前可用工具/servers: 查看已配置的 MCP 服务/history: 显示对话历史/quit: 退出程序
此外,可通过 -h 或 --help 查看命令行参数说明,支持指定模型 provider 及 API 密钥。
模型兼容性测试
在实际使用中,不同模型对 MCP 协议的支持程度存在差异。
调试过程
- GPT-4o: 能够正常回复,但无法准确调用时间工具获取实时数据。


