命令行大模型交互工具:MCPHost 实战指南
MCPHost 是一个轻量级的命令行宿主应用,旨在让大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。它支持 Claude、Ollama 以及本地部署的 DeepSeek 等多种模型。
安装与环境准备
MCPHost 无需复杂安装,下载解压即可运行。官方提供了 Windows、Linux 和 macOS 的预编译包。
前置依赖方面,建议先配置好 uv 和 nodejs 环境,以便后续调用 MCP Server。
下载地址可参考 GitHub 仓库:https://github.com/mark3labs/mcphost
基础配置与连接
创建 MCP 配置文件
在命令行工作目录下创建一个 mcp.json 文件,定义要调用的工具。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
启动交互
使用一条命令即可连通 AI 服务器并加载配置的工具。假设你的 API 服务地址为 http://localhost:1337,命令如下:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://localhost:1337 --config mcp.json
启动后进入交互界面,直接输入问题即可。例如询问当前时间。
常用指令与调试
查看帮助
在命令行中运行 -h 可查看全局参数,如指定模型、API Key 等:
mcphost.exe -h
进入交互界面后,输入 /help 可查看会话内的快捷指令:
/tools: 列出所有可用工具/servers: 显示已配置的 MCP 服务器/history: 查看对话历史


