小巧的 MCPHost
MCPHost 是一款轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。目前支持 Claude 3.5 Sonnet、Ollama 以及 DeepSeek 等模型。本文以 Time MCP 服务为例,演示如何配置并跑通本地 AI 服务。
项目地址:https://github.com/mark3labs/mcphost
下载安装
MCPHost 无需复杂安装,下载解压即可使用。官网提供 Windows、Linux 和 macOS 的压缩包。
下载地址:https://github.com/mark3labs/mcphost/releases/tag/v0.4.4
以 Windows 为例,下载压缩包后解压至工作目录,直接运行可执行文件即可。若希望全局调用,可将目录加入系统 PATH 环境变量。
前置依赖:建议先安装好 uv 和 nodejs。
MCPHost 交互实践
1. 准备配置文件
在工作目录下创建 mcp.json 配置文件,定义要调用的 MCP 服务。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
2. 启动连接
你需要一个 AI API 服务地址,可以是自建服务器(如 Ollama),也可以是 OpenAI、硅基流动等提供的 API。
使用以下命令启动 MCPHost,加载配置文件并连接 AI 模型:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
启动后进入交互界面,输入提示词即可开始对话。
3. 内置指令
在交互界面中,可以使用 /help 查看可用指令:
/help: 显示帮助信息/tools: 列出所有可用工具


