简介
MCPHost 是一款轻量级的命令行工具,旨在让大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。目前它支持 Claude 3.5 Sonnet、Ollama 等多种模型。在本次实践中,我使用自建的 DeepSeek v3 模型跑通了 Time MCP 服务。
官网地址:GitHub - mark3labs/mcphost
下载安装
工具非常轻量,直接下载解压即可运行。官方提供了 Windows、Linux 和 macOS 的压缩包。
以 Windows 为例,下载压缩包后解压到工作目录,即可直接使用可执行文件。当然,你也可以将工作目录添加到系统 PATH 环境变量中,以便在任意位置调用指令。
前置需求方面,大约需要先安装好 uv 和 nodejs。
配置与运行
创建配置文件
直接在命令行下,一句话就能进行 MCP 的交互。比如在工作目录创建一个 mcp.json 配置文件,内容如下:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
连接 AI 服务器
搭建一个 AI 服务器,例如 http://192.168.1.5:1337。或者也可以用手头现有的 AI API 服务,比如 OpenAI、Ollama、硅基流动、LMStudio 等提供的 API 调用服务。
MCPHost 使用一句命令就能连通 AI 服务器,启动 mcp.json 设置的 mcp-server-time,并进入交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
在交互界面就可以输入文字进行交互了,比如问它几点了。
┃ Enter your prompt (Type /help for commands, Ctrl+C to quit) ┃


