小巧的 MCPHost
MCPHost 是一个轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。目前支持 Claude、Ollama 以及本地部署的 DeepSeek 等模型。
前置准备
使用前需确保环境已安装 uv 和 nodejs。这些是运行部分 MCP 服务的基础依赖。
下载安装
项目托管在 GitHub 上,提供 Windows、Linux 和 macOS 的预编译包。
下载地址:https://github.com/mark3labs/mcphost/releases
以 Windows 为例,下载压缩包解压至工作目录即可直接使用。若希望全局调用,可将目录加入系统 PATH 环境变量。
配置与服务
创建配置文件
在工作目录下创建一个 mcp.json 文件,定义要调用的 MCP 服务器。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
启动交互
使用一条命令连接 AI 服务器并加载配置。假设你的 API 服务地址为 http://192.168.1.5:1337(请替换为实际地址):
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
启动后进入交互界面,输入提示词即可开始对话。例如询问当前时间。
常用指令
在交互界面中,可以使用内置命令管理会话:
/help: 查看帮助信息/tools: 列出可用工具/servers: 查看配置的 MCP 服务/history: 显示对话历史/quit: 退出程序
命令行参数方面,可以通过 指定模型,格式为 。支持的模型包括 Anthropic Claude、OpenAI GPT 系列以及 Ollama 本地模型。


