小巧的 MCPHost
MCPHost 是一款轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 以及本地部署的 DeepSeek 等多种模型。本次实践基于自建环境,成功跑通了 Time MCP 服务。
项目地址:https://github.com/mark3labs/mcphost
下载安装
工具本身非常便携,无需复杂安装,下载解压即可使用。官方提供了 Windows、Linux 和 macOS 三个平台的压缩包。
以 Windows 为例,下载对应版本的压缩包并解压到工作目录,即可直接使用可执行文件。若希望在任何位置调用,可将该目录添加到系统 PATH 环境变量中。
前置依赖方面,建议先安装好 uv 和 nodejs 环境。
MCPHost 交互实践
配置 MCP 服务
在命令行中创建配置文件 mcp.json,定义要调用的外部工具。例如创建一个时间服务的配置:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
接下来需要连接 AI 服务器。你可以搭建本地服务(如 http://192.168.1.5:1337),也可以使用 OpenAI、Ollama、LMStudio 等提供的 API 接口。
启动命令示例如下,它会连通 AI 服务器,加载 mcp.json 中的服务,并进入交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
常用指令
进入交互界面后,可以通过内置命令快速查看帮助或管理工具:
/help:显示当前会话的帮助信息/tools:列出所有可用的工具/servers:查看已配置的 MCP 服务


