小巧的 MCPHost
MCPHost 是一个轻量级的命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 以及本地部署的 DeepSeek 等多种模型。本次实践主要围绕在本地搭建 DeepSeek v3 模型服务,并成功跑通了 Time MCP 服务。
项目地址:GitHub - mark3labs/mcphost
下载安装
MCPHost 的使用门槛很低,官方提供了 Windows、Linux 和 macOS 的预编译压缩包,下载解压即可运行。
以 Windows 为例,直接下载对应版本的压缩包,解压到工作目录后,可执行文件便可以直接使用。如果希望在任何路径下调用,可以将该目录添加到系统环境变量 PATH 中。
前置依赖:
使用前请确保已安装 uv 和 nodejs。
配置与交互
创建配置文件
MCPHost 的核心在于配置文件。在工作目录下创建一个 mcp.json 文件,定义要调用的 MCP 服务器。例如,配置一个获取当前时间的服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
启动交互
你需要一个 AI 服务接口,可以是本地搭建的 API(如 Ollama、LMStudio),也可以是云端的 OpenAI 兼容接口。
假设你的 AI 服务运行在 http://192.168.1.5:1337,启动命令如下:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
执行后进入交互式界面,此时你可以直接输入自然语言提问,例如询问当前时间。
常用指令
进入交互界面后,可以使用内置指令来管理会话:
/help: 查看帮助信息/tools: 列出所有可用工具/servers: 显示配置的 MCP 服务器/history: 查看对话历史


