MCPHost 简介
MCPHost 是一个轻量级的命令行宿主应用,它允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。目前支持 Claude 3.5 Sonnet、Ollama 以及 OpenAI 兼容接口等多种模型。
项目地址:GitHub - mark3labs/mcphost
本次实践主要基于本地部署的 DeepSeek v3 模型,成功跑通了 Time MCP 服务,验证了其在函数调用方面的能力。
安装与环境准备
MCPHost 本身无需复杂编译,直接下载解压即可使用。官网提供了 Windows、Linux 和 macOS 三个平台的压缩包。
以 Windows 为例,下载对应版本的压缩包并解压到工作目录,即可直接使用可执行文件。若希望在任何路径下调用,建议将解压后的目录添加到系统 PATH 环境变量中。
前置依赖:
使用前需确保环境中已安装 uv 和 nodejs,这是运行部分 MCP 服务器所必需的。
配置与连接
创建配置文件
在工作目录下创建一个名为 mcp.json 的配置文件,用于定义可用的 MCP 服务。例如,配置一个获取当前时间的服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
启动交互
你需要一个 AI 服务作为后端。可以是自建的服务(如 Ollama、LMStudio),也可以是第三方 API(OpenAI、硅基流动等)。假设你的 AI 服务地址为 http://192.168.1.5:1337,则可以通过以下命令启动 MCPHost 并进入交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
启动后,命令行会提示输入 Prompt,此时即可向模型提问,例如询问当前时间。
常用指令与调试
查看帮助
在命令行参数中使用 -h 可以查看 MCPHost 的全局帮助信息,了解支持的模型格式和配置选项:
mcphost.exe -h


