工具简介
MCPHost 是一款轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 等多种模型,能够方便地架起大模型与本地工具之间的桥梁。
下载与安装
项目托管于 GitHub,提供 Windows、Linux 和 macOS 的预编译压缩包。直接下载解压即可使用,无需复杂的环境编译。建议将解压后的目录加入系统 PATH 环境变量,以便在任何位置调用指令。
前置依赖方面,通常需要安装 uv 包管理器和 Node.js 环境,具体视所使用的 MCP Server 而定。
配置与启动
首先在工作目录下创建 mcp.json 配置文件。以下示例配置了一个时间服务(Time MCP),指定使用 uvx 运行服务器,并设置时区为上海:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
接下来需要连接 AI 服务。你可以使用自建的 API 网关(如 LMStudio、Ollama 等),也可以接入 OpenAI 兼容接口。启动命令如下:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
执行后进入交互界面,即可输入自然语言指令。例如询问当前时间,工具会自动调用配置的 MCP Server 获取数据。
常用指令与调试
在交互界面中,可以使用内置命令查看状态:
/help:显示帮助信息/tools:列出可用工具/servers:查看已配置的服务/history:显示对话历史/quit:退出程序
若需查看命令行参数帮助,可运行 mcphost -h。输出会包含支持的模型格式(如 anthropic:claude-3-5-sonnet-latest 或 ollama:modelname)以及各类 API 密钥的配置选项。
模型兼容性与问题排查
在实际测试中,不同模型对 MCP 函数调用的支持程度存在差异。


