OpenClaw + MCP:让 AI 助手连接任意工具的终极方案

MCP(Model Context Protocol)是 2026 年最火的 AI 协议,而 OpenClaw 作为开源 AI 助手框架,已经率先支持 MCP 集成。本文将带你深入了解如何用 OpenClaw + MCP 打造一个能连接任意工具的超级 AI 助手。


什么是 MCP?

MCP(Model Context Protocol)是一个开源协议标准,用于连接 AI 应用和外部系统。

简单理解:MCP 就像是 AI 的 USB-C 接口。就像 USB-C 让你的电脑能连接显示器、硬盘、手机等各种设备一样,MCP 让你的 AI 助手能连接数据库、文件系统、API、日历等各种工具。

MCP 的核心概念

MCP 采用客户端-服务器架构:

角色说明例子
MCP HostAI 应用,管理多个 MCP 客户端Claude Desktop、VS Code、OpenClaw
MCP Client维护与 MCP Server 的连接由 Host 创建
MCP Server提供上下文数据的程序文件系统服务器、数据库服务器

MCP Server 能提供什么?

MCP Server 可以暴露三种核心能力:

  1. Tools(工具):可执行的函数,AI 可以调用来执行操作
    • 文件操作
    • API 调用
    • 数据库查询
  2. Resources(资源):提供上下文信息的数据源
    • 文件内容
    • 数据库记录
    • API 响应
  3. Prompts(提示词):可复用的交互模板
    • 系统提示词
    • Few-shot 示例

为什么 OpenClaw + MCP 是绝配?

OpenClaw 的优势

OpenClaw 是一个自托管的 AI 助手网关,核心特点:

  • 多渠道接入:飞书、Telegram、Discord、微信等
  • 自托管:数据在你自己手中
  • 技能系统:可扩展的插件机制
  • 多代理路由:支持多工作空间隔离

MCP 的优势

  • 标准化:一次开发,到处集成
  • 生态丰富:Claude、ChatGPT、VS Code、Cursor 都支持
  • 开放协议:开源、社区驱动

结合后的威力

一个入口,无限可能:你在飞书发一条消息,AI 助手就能帮你查询数据库、操作 GitHub、读写文件——所有工具都通过 MCP 协议标准化连接。


实战:在 OpenClaw 中配置 MCP

1. 安装 OpenClaw

npm install -g openclaw@latest

2. 配置 MCP Server

OpenClaw 通过 ACP(Agent Communication Protocol)模式支持 MCP 服务器集成。在配置文件 ~/.openclaw/openclaw.json 中添加:

{ "acp": { "mcpServers": { "filesystem": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/allowed/dir"] }, "github": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-github"], "env": { "GITHUB_TOKEN": "your-github-token" } } } } }

3. 启动 Gateway

openclaw gateway --port 18789

4. 连接飞书/Telegram

# 飞书 openclaw channels login feishu # Telegram openclaw channels login telegram

现在,你在飞书或 Telegram 发送消息,AI 助手就能通过 MCP 访问配置的工具了!


热门 MCP Server 推荐

官方服务器

服务器功能安装命令
filesystem文件系统读写npx @modelcontextprotocol/server-filesystem
githubGitHub API 操作npx @modelcontextprotocol/server-github
postgresPostgreSQL 数据库npx @modelcontextprotocol/server-postgres
slackSlack 消息操作npx @modelcontextprotocol/server-slack

社区服务器

服务器功能
mcp-server-brave-searchBrave 搜索
mcp-server-puppeteer浏览器自动化
mcp-server-sentrySentry 错误监控
mcp-server-google-calendarGoogle 日历

实战案例:打造自动化工作流

场景:日报自动生成

需求:每天自动从 GitHub 获取提交记录,从 Sentry 获取错误报告,生成日报发送到飞书。

配置

{ "acp": { "mcpServers": { "github": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-github"], "env": { "GITHUB_TOKEN": "xxx" } }, "sentry": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-sentry"], "env": { "SENTRY_TOKEN": "xxx" } } } }, "cron": { "dailyReport": { "cron": "0 9 * * *", "task": "生成昨日工作报告" } } }

效果:每天早上 9 点,AI 助手自动:

  1. 从 GitHub 获取昨天的 commits
  2. 从 Sentry 获取昨天的错误报告
  3. 汇总生成日报
  4. 发送到飞书群

MCP vs 传统插件方案

对比项MCP传统插件
标准化✅ 统一协议❌ 各自实现
生态✅ 跨平台复用❌ 平台绑定
开发成本✅ 一次开发❌ 每个平台单独开发
维护✅ 社区维护❌ 自己维护
安全✅ 权限可控⚠️ 依赖实现

最佳实践

1. 安全配置

{ "acp": { "mcpServers": { "filesystem": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-filesystem", "/home/user/safe-dir"], "env": {}, "readOnly": true } } } }

2. 按需加载

只配置你需要的 MCP Server,避免过度授权。

3. 日志监控

# 查看 MCP 调用日志 openclaw logs --filter mcp

未来展望

MCP 协议正在快速发展,越来越多的工具和平台正在加入:

  • 更多官方 Server:Anthropic 持续推出新的官方服务器
  • 企业级支持:更好的权限管理和审计
  • 性能优化:连接池、缓存等优化

OpenClaw 也在持续迭代 MCP 支持,未来将支持:

  • 动态加载 MCP Server
  • 可视化配置界面
  • 更丰富的监控和调试工具

总结

OpenClaw + MCP 的组合,让你的 AI 助手真正拥有了"万能接口":

  1. 一次配置,多渠道使用:在飞书、Telegram、Discord 都能用
  2. 标准化工具生态:复用 Claude、VS Code 等平台的 MCP 服务器
  3. 自托管,数据安全:所有数据都在你自己的服务器上
  4. 可扩展:随时添加新的 MCP Server

现在就开始

npm install -g openclaw@latest openclaw onboard --install-daemon openclaw gateway

让你的 AI 助手拥有无限可能!🦞


参考资料

Read more

在Android设备上利用Termux安装llama.cpp并启动webui

llama.cpp没有发布官方aarch64的二进制,需要自己编译,好在Termux已经有编译好的包可用。 按照文章在安卓手机上用vulkan加速推理LLM的方法, 1.在Termux中安装llama-cpp软件 ~ $ apt install llama-cpp Reading package lists... Done Building dependency tree... Done Reading state information... Done E: Unable to locate package llama-cpp ~ $ apt update Get:1 https://mirrors.tuna.tsinghua.edu.cn/termux/apt/termux-main stable InRelease [14.0 kB] Get:2 https://mirrors.

不只是 Copilot:Kimi Code 正在改变写代码的方式

不只是 Copilot:Kimi Code 正在改变写代码的方式

之前介绍过,在 Claude Code 中使用 Kimi,现在Kimi也推出自己的 CLI 了。但是目前是会员专供! Kimi Code 是由 Moonshot AI(Kimi) 推出的下一代 AI 编程助手/代码智能体,作为 Kimi 会员订阅中专为开发者设计的增值权益,旨在帮助开发者更快、更智能、更高效地完成编程任务。它可以直接融入开发流程、终端工具和主流 IDE,让 AI 编程能力成为日常开发的一部分。 核心定位:你的 AI 代码伙伴 Kimi Code 不只是简单的补全工具,而是一个智能编程代理(AI Code Agent): * 自动理解问题和代码结构,回答开发者的问题。 * 辅助编写、调试、重构和测试代码,覆盖开发生命周期。 * 直接运行在终端与

Docker:Docker部署Neo4j图数据库

Docker:Docker部署Neo4j图数据库

Docker:Docker部署Neo4j图数据库 前言 Neo4j是一个高性能的,基于java开发的,NOSQL图形数据库,它将结构化数据存储在网络上而不是表中;它是一个嵌入式的、基于磁盘的、具备完全的事务特性的Java持久化引擎。 Neo4j分为企业版和社区版,企业版可以创建多个数据库,链接多个数据库,但是收费……;社区版只能链接一个数据库,所以社区版不支持创建数据库命令。 Neo4j部署后默认创建名字为 neo4j 的数据库,可以直接链接这个数据库 拉取镜像 # 下载镜像 docker pull neo4j:5.26.2 也可以不指定版本 构建容器 # 创建neo4j容器 docker run -it -d -p 7474:7474 -p 7687:7687 \ -v /home/neo4j/data:/data \ -v /home/neo4j/logs:

VLA机器人革命:解析当下10篇最关键的视觉-语言-动作模型论文

VLA机器人革命:解析当下10篇最关键的视觉-语言-动作模型论文

VLA机器人革命:解析当下10篇最关键的视觉-语言-动作模型论文 概览 2024-2026年,机器人领域正经历一场范式转换:从传统的任务特定编程转向视觉-语言-动作(Vision-Language-Action, VLA)模型。这些模型将视觉感知、自然语言理解和动作执行统一在单一框架中,让机器人能够像人类一样理解指令、推理场景并执行复杂操作。 本文精选5篇最fundamental的基础性论文和5篇热度最高的前沿论文,深入剖析VLA领域的核心思想、技术演进和未来方向。这些论文代表了从Google DeepMind、NVIDIA、斯坦福、Physical Intelligence等顶尖机构的最新突破,涵盖了从单臂操作到双臂人形机器人、从模拟环境到真实家庭场景的全方位进展。 Part I: 五篇Fundamental基础性论文 这些论文奠定了VLA领域的理论基础和技术范式,是理解整个领域发展脉络的关键。 1. RT-2: New Model Translates Vision and Language into Action 发表机构:Google DeepMind 时间: