MCPHost 简介
MCPHost 是一款轻量级的命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 以及本地部署的 DeepSeek 等多种模型。本文将记录使用 MCPHost 连接本地 AI 服务并调用 Time MCP 服务的完整实践过程。
项目地址:https://github.com/mark3labs/mcphost
安装与环境准备
MCPHost 无需复杂安装,下载对应系统的压缩包解压即可运行。官网提供了 Windows、Linux 和 macOS 版本。
以 Windows 为例,下载解压后,可执行文件即位于工作目录中。若希望在任何路径下调用,可将该目录加入系统 PATH 环境变量。
前置依赖方面,建议先安装好 uv 和 Node.js,以便后续运行 MCP Server。
配置 MCP 服务
在命令行中创建一个名为 mcp.json 的配置文件,定义要调用的外部工具。例如配置一个获取当前时间的服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
接下来需要连接一个 AI 服务器。你可以搭建本地服务(如 http://localhost:1337),也可以使用 OpenAI、Ollama 或 LMStudio 等提供的 API 接口。
启动 MCPHost 并进入交互界面的命令如下:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://<your_api_url>:<port> --config mcp.json
运行后,即可在终端中输入自然语言指令与模型交互,例如询问当前时间。
常用命令与调试
查看帮助
在命令行输入 -h 可查看 MCPHost 的参数说明,了解支持的模型格式及 API 配置项。
进入交互界面后,输入 /help 可查看会话内的快捷指令:
- : 列出所有可用工具


