小巧的 MCPHost
MCPHost 是一款轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 以及自建模型等多种后端。本次实践基于本地搭建的 DeepSeek V3 模型,成功跑通了 Time MCP 服务。
项目地址:https://github.com/mark3labs/mcphost
下载安装
使用非常方便,直接下载解压即可运行。官网提供 Windows、Linux 和 macOS 三个系统的压缩包。
以 Windows 为例,下载对应版本的压缩包并解压到工作目录,即可直接使用可执行文件。若希望在任何路径调用,可将该目录添加到系统 PATH 环境变量中。
前置依赖:建议先安装好 uv 和 Node.js。
MCPHost 交互实践
配置 MCP 服务
在工作目录下创建一个 mcp.json 配置文件,用于定义 MCP 服务器。例如配置一个获取时间的服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
同时需要确保 AI 服务可用。可以搭建本地服务器(如 http://192.168.1.5:1337),或使用 OpenAI、Ollama、硅基流动等提供的 API 接口。
启动交互
使用一条命令即可连通 AI 服务器,加载配置的 MCP 服务并进入交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
进入界面后输入文字即可交互,例如询问当前时间。
常用指令
在交互界面内,可以通过 /help 查看可用指令:
/help: 显示帮助信息/tools: 列出所有可用工具/servers: 列出已配置的 MCP 服务器


