MCPHost 简介
MCPHost 是一款轻量级命令行工具,允许大型语言模型(LLM)通过模型上下文协议(MCP)与外部工具进行交互。目前支持 Claude 3.5 Sonnet、Ollama 以及 Deepseek v3 等主流模型。
项目地址:https://github.com/mark3labs/mcphost
环境准备与安装
该工具无需复杂编译,直接下载解压即可使用。官网提供了 Windows、Linux 和 macOS 的压缩包。
以 Windows 为例,下载对应版本的压缩包并解压到工作目录,即可得到可执行文件。若希望在任何路径调用,可将目录加入系统 PATH 环境变量。
前置依赖方面,建议先安装好 uv 和 nodejs,以便后续运行 MCP Server。
配置与启动
创建配置文件
在工作目录下创建一个名为 mcp.json 的配置文件,用于定义可用的 MCP 服务。例如配置一个时间服务:
{
"mcpServers": {
"time": {
"command": "uvx",
"args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"]
}
}
}
连接 AI 服务
你需要一个可用的 AI API 服务,可以是本地搭建的服务器(如 Ollama),也可以是 OpenAI、硅基流动等提供的 API。
使用以下命令启动 MCPHost,加载配置文件并进入交互界面:
mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json
启动后,在命令行中输入提示词即可开始对话。例如询问当前时间。
常用指令
进入交互界面后,可以使用内置指令管理会话:
/help: 查看帮助信息/tools: 列出当前可用的工具/servers: 显示配置的 MCP 服务/history: 查看历史对话/quit: 退出程序
此外,也可以通过 参数查看 CLI 层面的帮助文档,了解支持的模型格式(如 或 )。


