命令行大模型交互工具 MCPHost 配置与实战指南
MCPHost 是一款轻量级命令行工具,旨在让大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 以及本地部署的 Deepseek 等多种模型。本文将基于实际部署经验,分享如何快速搭建并调试 MCPHost。
环境准备与安装
MCPHost 无需复杂的编译过程,官方提供了 Windows、Linux 和 macOS 的预编译包。直接下载解压即可使用。
前置依赖:
uv:用于管理 Python 环境和运行uvx命令。Node.js:部分 MCP 服务器可能需要 Node 环境支持。
下载地址请前往 GitHub Release 页面获取最新版本。以 Windows 为例,解压后将可执行文件所在目录加入系统 PATH,即可在任意位置调用。
配置文件编写
MCPHost 的核心在于配置文件。我们需要创建一个 mcp.json 来定义可用的 MCP 服务。例如,配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
这里使用了 uvx 来动态拉取并运行 mcp-server-time,同时指定了上海时区。
启动与交互
连接 AI 服务器后,即可启动 MCPHost 进入交互模式。假设你的 AI API 网关地址为 http://192.168.1.5:1337,命令如下:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
启动后会进入交互式界面,此时可以直接输入自然语言提问。例如询问当前时间。
常用指令
在交互界面内,可以通过以下指令辅助操作:
/help:查看帮助信息。/tools:列出当前加载的所有可用工具。/servers:显示已配置的 MCP 服务器状态。/history:查看对话历史。


