可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

小巧的MCPHost

MCPHost 可以在命令行下使用,使大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前支持Claude 3.5 Sonnet和Ollama等。本次实践使用自己架设的Deepseek v3模型,跑通了Time MCP服务。

 官网:GitHub - mark3labs/mcphost: A CLI host application that enables Large Language Models (LLMs) to interact with external tools through the Model Context Protocol (MCP).

下载安装

使用非常方便,直接下载解压即可使用。官网提供Windows、Linux和MacOS三个系统的压缩包:

https://github.com/mark3labs/mcphost/releases/tag/v0.4.4

比如Windows系统,直接下载压缩包,解压到工作目录,直接就是可执行文件,在工作目录即可使用。当然也可以把工作目录放入系统PATH路径中,就可以在任意地方调用指令了。

其它前置需求:大约需要先安装好uv和nodejs。

MCPHost交互实践

学习MCPHost命令

直接在命令行下,一句话就能进行MCP的交互,比如在工作目录创建一个Time MCP配置文件mcp.json,内容如下:

{ "mcpServers": { "time": { "command": "uvx", "args": ["mcp-server-time", "--local-timezone=Asia/Shanghai"] } } }

搭建一个AI服务器,地址是http://192.168.1.5:1337 。或者也可以用手头有的AI API服务,比如OpenAI、Ollama、硅基流动、LMStudio等提供的API调用服务。

MCPHost使用一句命令就能连通AI服务器,启动mcp.json设置的mcp-server-time,并进入交互界面:

mcphost --openai-api-key=$OPENAI_API_KEY -m openai:gpt-4o --openai-url http://192.168.1.5:1337 --config mcp.json

在交互界面就可以输入文字进行交互了,比如问它几点了。

┃ Enter your prompt (Type /help for commands, Ctrl+C to quit) ┃

查看帮助

可以用/help看看MCPHost的指令帮助:

mcphost.exe -h MCPHost is a CLI tool that allows you to interact with various AI models through a unified interface. It supports various tools through MCP servers and provides streaming responses. Available models can be specified using the --model flag: - Anthropic Claude (default): anthropic:claude-3-5-sonnet-latest - OpenAI: openai:gpt-4 - Ollama models: ollama:modelname Example: mcphost -m ollama:qwen2.5:3b mcphost -m openai:gpt-4 Usage: mcphost [flags] Flags: --anthropic-api-key string Anthropic API key --anthropic-url string base URL for Anthropic API (defaults to api.anthropic.com) --config string config file (default is $HOME/mcp.json) --debug enable debug logging -h, --help help for mcphost --message-window int number of messages to keep in context (default 10) -m, --model string model to use (format: provider:model, e.g. anthropic:claude-3-5-sonnet-latest or ollama:qwen2.5:3b) (default "anthropic:claude-3-5-sonnet-latest") --openai-api-key string OpenAI API key --openai-url string base URL for OpenAI API (defaults to api.openai.com)

进入交互界面后,还可以用/help来看交互界面下的命令: 

 • /help: Show this help message • /tools: List all available tools • /servers: List configured MCP servers • /history: Display conversation history • /quit: Exit the application You can also press Ctrl+C at any time to quit. ## Available Models Specify models using the --model or -m flag: • Anthropic Claude: anthropic:claude-3-5-sonnet-latest • Ollama Models: ollama:modelname Examples: mcphost -m anthropic:claude-3-5-sonnet-latest mcphost -m ollama:qwen2.5:3b ┃ Enter your prompt (Type /help for commands, Ctrl+C to quit) ┃

 比如用/tool看看工具:

 • time • get_current_time • Get current time in a specific timezones • convert_time • Convert time between timezones

可以看到当前的工具是time。 

用/services看看服务

 # time Command uvx Arguments mcp-server-time --local-timezone=Asia/Shanghai

调试mcp-server-time

用模型claude-3-5-sonnet(模型没调通)

用gpt-4o模型问不出时间来。

尝试换个模型,换成claude-3-5-sonnet

mcphost --openai-api-key=$OPENAI_API_KEY -m openai:claude-3-5-sonnet --openai-url http://192.168.1.5:1337 --config mcp.json 

这个问了问题会退出...

因为是自己搭建的服务器,所以可能是这个模型不行(不通)。后来测试了一下,确实claude-3-5-sonnet本身没调好,普通交互就会报错(ContentLengthError: 400)

换成gpt-4o或者gpt-4,都是可以有回复的,但是无法报时,没有达到预期目标。

打开360信任

同时所做的操作是将uv cache所在的目录(就是启动mcp-server-time服务所用的临时目录)在360里打开信任。防止潜在的网络通信故障或进程无法启动的问题。

换成deepseek-v3,成功!

太不容易了,最后把模型换成deepseek-s3,终于成功了!

mcphost --openai-api-key=$OPENAI_API_KEY -m openai:deepseek-v3 --openai-url http://192.168.1.5:1337 --config mcp.json

问它几点了?

 Assistant: Hi there! How can I assist you today? You: what time is it? Assistant: Current Time - Today is Monday, March 17, 2025. - The exact time depends on your location, but here are some references: - Central Daylight Time (CDT): 08:54:06 PM (UTC-5) - Eastern Daylight Time (EDT): 09:54:06 PM (UTC-4) Let me know if you'd like the time for a specific location! 

看看,它回答出了今天的日期和时间,达到了使用MCP获取当前时间的预期目标。也就是说deepseek-v3模型是支持函数调用的!

再来看个完整的交互

E:\360Downloads\mcphost_Windows_x86_64>mcphost --openai-api-key=$OPENAI_API_KEY -m openai:deepseek-v3 --openai-url http://192.168.1.5:1337 --config mcp.json 2025/03/19 09:26:51 INFO Model loaded provider=openai model=deepseek-v3 2025/03/19 09:26:51 INFO Initializing server... name=time 2025/03/19 09:26:55 INFO Server connected name=time 2025/03/19 09:26:55 INFO Tools loaded server=time count=2uit) You: 请告诉我现在的时间,谢谢 Assistant: 您好!今天是2025年3月19日,星期三。以下是当前的时间信息: 当前时间 • 日期:2025年3月19日 • 星期:星期三 • 时间:请查看您设备上的时钟以获取准确时间。 如果您需要更具体的时间信息,请告诉我您的时区,我可以为您提供更精确的时间。 You: 请告诉我现在的准确时间,谢谢 Assistant: 您好!由于我无法直接访问实时数据,无法提供当前的准确时间。建议您查看您的设备(如手机、电脑或手表)上的时钟,以获取最准确的时间信息。如果您需要帮助,请告诉我您的时区,我可以为您提供相关的时间计算方法。 You: 请告诉我当前的时间,谢谢 Assistant: 由于我无法直接访问实时数据,因此无法提供当前的准确时间。建议您查看您的设备(如手机、电脑或手表)上的时钟,以获取最准确的时间信息。如果您需要帮助,请告诉我您的时区,我可以为您提供相关的时间计算方法。 You: 我在济宁,请告诉我当前的实践 Assistant: 您好!以下是济宁当前的时间信息: 济宁当前时间 • 日期:2025年3月19日 • 星期:星期三 • 时间:上午9:28:45 • 时区:CST(中国标准时间,UTC/GMT +8小时) 如果您需要进一步帮助,请随时告诉我! Goodbye!

但是它并不是每回都能正确回答,有时候可能答不出来。也许还是要用官方建议的claude-3-5-sonnet模型效果会更好些。有claude-3-5-sonnet模型的朋友可以试一下,欢迎在评论区讨论!

目前测试出来支持的模型:deepseek-v3 deepseek-chat

总结

这是一次很好的实践。

MCPHost小巧实用,可以很方便的架起大模型和MCP之间的桥梁。

但是效果,尚需努力,使用deepseek-v3模型,离可以用,还有些距离。

测试下来支持MCP的模型有:deepseek-v3 llama3.2:3b llama3.3:70b 

欢迎大家使用各种模型来评测下,哪种模型更适合MCP请写在评论,谢谢啦!

Read more

【MCP探索实践】Google GenAI Toolbox:Google开源的企业级AI数据库中间件、5分钟搞定LLM-SQL安全互联

【MCP探索实践】Google GenAI Toolbox:Google开源的企业级AI数据库中间件、5分钟搞定LLM-SQL安全互联

系列篇章💥 No.文章1【MCP探索实践】Cherry Studio+MCP实战:3步让AI自动抓网页/读文件/调API2【MCP探索实践】FastAPI + MCP:2025年最火的后端与AI集成方案3【MCP探索实践】GitHub MCP Server:为开发者打造的高效自动化工具4【MCP探索实践】MoLing:零依赖跨平台办公自动化神器,3分钟搞定文件+浏览器双核操作5【MCP探索实践】3分钟搭建AI服务器!FastMCP让开发效率飙升10倍6【MCP探索实践】MindsDB:借助 MCP 协议,让 AI 大模型秒变 SQL 专家7【MCP探索实践】Web Search MCP Server:无需 API 密钥的免费网络搜索服务8【MCP探索实践】百度地图 MCP Server:告别繁琐集成、

By Ne0inhk
Flutter 组件 saropa_lints 适配鸿蒙 HarmonyOS 实战:代码质量守卫,构建性能合规性检查与自定义分析规约治理架构

Flutter 组件 saropa_lints 适配鸿蒙 HarmonyOS 实战:代码质量守卫,构建性能合规性检查与自定义分析规约治理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 saropa_lints 适配鸿蒙 HarmonyOS 实战:代码质量守卫,构建性能合规性检查与自定义分析规约治理架构 前言 在鸿蒙(OpenHarmony)生态迈向大规模工业化协同、涉及超大型项目敏捷迭代、海量模块解耦及严苛 AOT 性能交付标准的背景下,如何实现一套能够自动拦截低质量代码、保障跨团队开发风格绝对统一且符合鸿蒙性能极致要求的“静态扫描中心”,已成为决定应用长期可维护性与研发效能感的关键。在鸿蒙设备这类强调 AOT 静态优化与严格类型安全的环境下,如果应用代码中充斥着滥用的 dynamic 调用或循环引用,由于由于编译期的类型擦除与运行时的屏障开销,极易由于由于“代码腐化”导致鸿蒙应用在长期运行后发生不可预知的内存泄露。 我们需要一种能够强制约束研发纪律、支持自定义规则扩展且具备“一站式”合规性判定的 Linter 方案。 saropa_lints 为 Flutter 开发者引入了“质量铁律”范式。它不是简单的代码检查

By Ne0inhk
Flutter 组件 vietqr_gen 适配鸿蒙 HarmonyOS 实战:标准聚合支付,构建金融级二维码生成与跨境支付治理架构

Flutter 组件 vietqr_gen 适配鸿蒙 HarmonyOS 实战:标准聚合支付,构建金融级二维码生成与跨境支付治理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 vietqr_gen 适配鸿蒙 HarmonyOS 实战:标准聚合支付,构建金融级二维码生成与跨境支付治理架构 前言 在鸿蒙(OpenHarmony)生态迈向全场景商业化、涉及跨境数字化金融、智能收银终端及分布式聚合支付的背景下,如何生成符合国际 EMVCo 标准且具备高可靠校验机制的支付二维码,已成为决定金融类应用“交易确定性”的核心环节。在鸿蒙设备这类强调内核级安全防护与高精度金融计算的环境下,如果应用依然依赖简单的字符串拼接来构造具有复杂 TLV(Tag-Length-Value)结构的支付密令,由于由于字节统计误差或 CRC 校验逻辑漏洞,极易由于由于扫码解析失败导致资金结算链路的中断。 我们需要一种能够自动化 TLV 封装、支持标准银行目录映射且具备高精度 CRC16 校验的金融级生成方案。 vietqr_gen 为 Flutter 开发者引入了标准化的聚合支付二维码生成协议。它不仅支持对收款账号、金额及备注的结构化打包,更

By Ne0inhk
Flutter 三方库 event_bus_plus 强解耦架构系统鸿蒙化极速适配大盘:破除大型多终端应用深层状态泥潭,精准搭建全视图双向隔离观察者通讯异步总线-适配鸿蒙 HarmonyOS ohos

Flutter 三方库 event_bus_plus 强解耦架构系统鸿蒙化极速适配大盘:破除大型多终端应用深层状态泥潭,精准搭建全视图双向隔离观察者通讯异步总线-适配鸿蒙 HarmonyOS ohos

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 event_bus_plus 强解耦架构系统鸿蒙化极速适配大盘:破除大型多终端应用深层状态泥潭,精准搭建全视图双向隔离观察者通讯异步总线链路引擎枢纽 在鸿蒙平台的复杂多模块协同、跨 Ability 通信或具备高度解耦要求的 UI 交互开发中,如何实现比原生 Stream 更具扩展性且易管理的事件总线?event_bus_plus 是一套基于 event_bus 深度增强的 Dart 事件分发工具集。本文将详解该库在 OpenHarmony 上的适配要点。 前言 什么是 event_bus_plus?它在标准事件总线的基础上,引入了诸如“最后事件缓存(Sticky Events)”、“强类型过滤”以及更优雅的生命周期销毁机制。在鸿蒙操作系统强调的“全场景智慧连接”和“系统级极致解耦”

By Ne0inhk