小巧的 MCPHost
MCPHost 是一款轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。目前支持 Claude 3.5 Sonnet、Ollama 以及本地部署的 DeepSeek v3 等模型。本文基于实际部署环境,演示如何配置并使用 Time MCP 服务。
官方仓库位于 GitHub:https://github.com/mark3labs/mcphost
下载安装
MCPHost 采用免安装模式,下载解压即可运行。官网提供了 Windows、Linux 和 macOS 的压缩包版本。
以 Windows 为例,下载对应系统的压缩包后解压至工作目录,直接运行可执行文件即可。若需全局调用,可将该目录添加至系统环境变量 PATH 中。
前置依赖方面,建议预先安装好 uv 和 Node.js 环境。
MCPHost 交互实践
配置文件准备
在命令行下创建一个 mcp.json 配置文件,用于定义 MCP 服务器。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
你需要搭建一个 AI 服务器地址(如 http://192.168.1.5:1337),或者使用现有的 API 服务(OpenAI、Ollama、LMStudio 等)。
启动命令示例如下,其中包含了 API Key、模型指定及配置文件路径:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
执行后进入交互界面,即可输入自然语言指令,例如询问当前时间。
常用指令
在交互界面中,可以通过以下指令辅助操作:
/help:查看帮助信息/tools:列出所有可用工具/servers:显示配置的 MCP 服务器/history:查看对话历史/quit:退出程序
此外,命令行参数也支持更多配置,例如指定模型类型:


