小巧的 MCPHost
MCPHost 是一个轻量级命令行工具,旨在让大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持多种模型后端,包括 Claude、Ollama 以及 OpenAI 兼容接口。本次实践以自建 DeepSeek V3 模型为例,演示如何配置并运行 Time MCP 服务。
项目地址:https://github.com/mark3labs/mcphost
安装与环境准备
MCPHost 无需复杂编译,直接下载对应系统的压缩包解压即可使用。官方提供了 Windows、Linux 和 macOS 版本。
前置依赖方面,建议先安装好 uv 和 Node.js,以便后续运行 MCP Server 脚本。
配置文件编写
在工作目录下创建一个 mcp.json 文件,用于定义可用的 MCP 服务器。以下是一个配置 Time 服务的示例:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
启动与交互
假设你已搭建好 AI 推理服务(例如运行在 http://192.168.1.5:1337),或者直接使用现有的 API 服务。通过一条命令即可连通模型并加载配置好的工具:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
进入交互界面后,可以直接提问。例如询问当前时间,工具会自动调用配置的 MCP Server 获取数据。
常用指令
在交互界面中,输入 /help 可查看可用指令列表:
/tools: 列出所有可用工具/servers: 查看已配置的 MCP 服务/history: 显示对话历史- : 退出程序


