MCPHost 简介
MCPHost 是一个轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 以及本地部署的 DeepSeek 等多种模型。
项目地址:GitHub - mark3labs/mcphost
安装与环境准备
MCPHost 无需复杂安装,下载对应系统的压缩包解压即可使用。目前提供 Windows、Linux 和 macOS 版本。
以 Windows 为例,下载解压后得到可执行文件。建议将其所在目录加入系统 PATH 环境变量,以便在任意位置调用。
前置依赖:
uv(Python 包管理工具)Node.js
配置与基础交互
创建配置文件
在工作目录下创建一个 mcp.json 文件,定义要调用的 MCP 服务。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
启动交互
使用一条命令即可连接 AI 服务器并加载配置的服务。假设你的 AI API 服务运行在本地 http://192.168.1.5:1337:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
进入交互界面后,直接输入问题即可。例如询问当前时间。
常用指令
在交互界面中,可以使用以下内置命令:
/help: 查看帮助信息/tools: 列出所有可用工具/servers: 查看已配置的 MCP 服务/history: 显示对话历史/quit: 退出程序
此外,可通过 参数查看命令行选项,例如指定模型格式为 (如 或 )。


