MCPHost 简介
MCPHost 是一款轻量级的命令行工具,旨在让大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前它支持 Claude 3.5 Sonnet、Ollama 以及本地部署的 DeepSeek v3 等模型。
项目地址:https://github.com/mark3labs/mcphost
安装与环境准备
使用非常方便,无需复杂编译,直接下载解压即可运行。官网提供了 Windows、Linux 和 macOS 三个平台的压缩包。
以 Windows 为例,下载对应版本的压缩包并解压到工作目录,即可直接使用可执行文件。如果希望在任何位置调用该指令,可以将工作目录添加到系统 PATH 环境变量中。
前置依赖方面,建议先安装好 uv 和 nodejs,以便后续运行 MCP Server。
配置与交互实践
创建配置文件
在工作目录下创建一个名为 mcp.json 的配置文件,用于定义可用的 MCP 服务。例如,我们要搭建一个获取当前时间的服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
启动连接
接下来需要指定 AI 模型的 API 地址。你可以使用自建的服务器(如 http://192.168.1.5:1337),也可以使用 OpenAI、Ollama、LMStudio 等提供的 API 服务。
使用以下命令启动 MCPHost,它会连通 AI 服务器,加载配置的 MCP 服务并进入交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
进入交互界面后,直接输入问题即可。例如询问时间,或者使用 /help 查看可用命令。
常用指令
在交互界面内,可以使用以下快捷指令:
/help: 显示帮助信息


