MCPHost 简介
MCPHost 是一个轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具交互。它支持多种模型后端,包括 Claude、Ollama 以及各类 OpenAI 兼容接口。
环境准备与安装
工具本身无需编译,下载对应平台的压缩包解压即可运行。建议将可执行文件加入系统 PATH 环境变量以便全局调用。 前置依赖:
- Python 环境及 uv 包管理器
- Node.js 运行时
配置 MCP 服务
创建一个 mcp.json 配置文件定义要调用的工具。例如配置时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
启动与交互
通过命令行参数指定 API Key、模型类型及服务地址即可启动会话。
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:deepseek-v3 --openai-url http://localhost:1337 --config mcp.json
进入交互界面后,可使用内置命令管理会话:
/help:查看帮助信息/tools:列出可用工具/servers:显示已配置的服务/quit:退出程序
模型兼容性实测
在实际使用中,不同模型对 MCP 协议的支持程度存在差异。
- GPT-4o:能够正常响应,但在特定工具调用上表现不稳定。
- Claude 3.5 Sonnet:本地部署时偶发连接错误,需检查服务端配置。
- DeepSeek-v3:经测试,该模型对函数调用支持良好,能准确获取并返回时间信息。
若遇到工具无法启动的情况,建议检查安全软件是否拦截了子进程,或将相关目录加入白名单。
总结
MCPHost 为本地化 AI 应用提供了便捷的桥梁。虽然部分模型在复杂任务上仍有优化空间,但 DeepSeek-v3 等开源模型已展现出不错的 MCP 兼容性。开发者可根据实际需求选择合适的模型进行集成。


