MCPHost 简介
MCPHost 是一款轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 以及各类自建 API 服务。本文以自建 DeepSeek V3 模型为例,演示如何配置并运行 Time MCP 服务。
项目地址:https://github.com/mark3labs/mcphost
安装与环境准备
MCPHost 无需复杂安装,下载对应系统的压缩包解压即可使用。目前提供 Windows、Linux 和 macOS 版本。
前置依赖:
- uv (Python 包管理工具)
- Node.js
以 Windows 为例,解压后将可执行文件所在目录加入系统 PATH,即可在任意位置调用 mcphost 命令。
配置与交互
创建配置文件
在工作目录下创建一个 mcp.json 文件,定义要调用的 MCP 服务器。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
启动连接
假设你的 AI 服务器部署在 http://<server_ip>:1337,可以使用以下命令启动交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:deepseek-v3 --openai-url http://<server_ip>:1337 --config mcp.json
进入交互界面后,直接输入问题即可。例如询问当前时间。
查看帮助与工具
在命令行参数中使用 -h 或 --help 可查看工具本身的帮助信息,包括支持的模型格式(如 anthropic:claude-3-5-sonnet-latest)。
进入交互界面后,可使用内置指令:
/help: 显示帮助消息/tools: 列出所有可用工具- : 列出配置的 MCP 服务器



