MCPHost 简介
MCPHost 是一款轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 等多种模型接入,本次实战基于本地部署的 DeepSeek V3 模型,成功跑通了 Time MCP 服务。
项目托管于 GitHub:mark3labs/mcphost
环境准备与安装
MCPHost 使用非常便捷,无需复杂编译,直接下载解压即可运行。官方提供了 Windows、Linux 和 macOS 三个系统的压缩包。
下载地址:[Releases - v0.4.4](https://Windows 系统下,直接下载压缩包并解压到工作目录,即可得到可执行文件。若希望全局调用,可将该目录加入系统 PATH 环境变量。
前置依赖方面,建议先安装好 uv 和 nodejs,以便后续运行部分 MCP 服务器。
配置与服务启动
创建配置文件
在工作目录下创建一个名为 mcp.json 的配置文件,用于定义可用的 MCP 服务。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
连接 AI 服务器
你需要一个 AI API 服务地址,可以是自建服务(如 Ollama、LMStudio),也可以是 OpenAI、硅基流动等提供的 API。假设本地搭建的服务地址为 http://192.168.1.5:1337。
使用以下命令连通 AI 服务器,加载配置文件中的服务并进入交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
进入交互界面后,即可输入自然语言指令。例如询问当前时间。
常用指令
在交互界面中,可以使用内置指令查看帮助或管理工具:
/help: 显示帮助信息/tools: 列出所有可用工具


