linux部署OpenClaw

linux部署OpenClaw

开发环境

系统是ubuntu 24.04.3,虚拟机环境,镜像在这里下载

在这里插入图片描述


阿里、腾讯等云服务商有提供一键部署的环境,只是需要花钱买他们的服务器。

安装OpenClaw

基础介绍看这里

安装node环境

版本需要不低于22

curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash - 
apt install nodejs -y 

检查版本:

node -v 
npm -v 
在这里插入图片描述

安装OpenClaw

curl -fsSL https://openclaw.ai/install.sh | bash 

会在这里等几分钟,取决于你的网速:

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


选择自己喜欢的大模型(这里选择Kimi):

在这里插入图片描述


在这里插入图片描述


输入key:

在这里插入图片描述


key获取需要在官网登陆,后创建(需要充值)

在这里插入图片描述


输入key后:

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


空格选中,回车确认:

在这里插入图片描述


在这里插入图片描述


这一步回车后就可以在命令行中对话:

在这里插入图片描述


连续按下2次ctrl+c退出对话回到命令行,在命令行中输入openclaw tui重新开始对话。

卸载流程

openclaw uninstall 
openclaw gateway stop 
openclaw gateway uninstall 
rm -rf "${OPENCLAW_STATE_DIR:-$HOME/.openclaw}" 
rm -rf ~/.openclaw/workspace 
npm rm -g openclaw 

详细解释在这里

安装插件

飞书
openclaw plugins install @m1heng-clawd/feishu 
在这里插入图片描述


需要等一小会儿:

在这里插入图片描述


配置飞书app_ip(和App Secret的获取在下面介绍):

openclaw config set channels.feishu.appId "你的appId" 

配置飞书App Secret:

 openclaw config set channels.feishu.appSecret "你的App Secret" 

使能:

openclaw config set channels.feishu.enabled true 

重启网关:

openclaw gateway restart 

app_ip和App Secret在飞书开发者平台获取,先创建应用:

在这里插入图片描述


在这里插入图片描述


名字描述随便取:

在这里插入图片描述


在这里插入图片描述


App ID和App Secret后面会用,应用的能力和权限根据需求添加,也就是openClaw能控制些什么:

在这里插入图片描述


在这里插入图片描述


时间和回调选择长连接:

在这里插入图片描述


在这里插入图片描述


比如我开通了一下8个权限:

权限说明
im:message:send_as_bot以机器人身份发送消息
im:message消息相关操作
im:message.group_at_msg:readonly读取群组中@机器人的消息
im:message.p2p_msg:readonly读取单聊(私聊)消息
im:chat:readonly读取聊天列表信息
im:resource访问聊天资源(图片、文件等)
contact:contact.base:readonly读取联系人基础信息
contact:user.base:readonly读取用户基础信息

添加了4个事件:

在这里插入图片描述


权限配置好后就可以表现版本信息然后发布:

在这里插入图片描述


添加了机器人的话,在飞书中直接搜索应用名字就可以找到并和机器人进行对话。

在这里插入图片描述
浏览器

直接浏览器自动化(无需插件),在 Windows 上开放 Chrome 的远程调试端口openClaw通过网络直接连接:
使用管理员身份运行cmd:
先关闭本地的浏览器:

taskkill /F /IM msedge.exe 2>nul 

在浏览器exe所在位置运行:

msedge.exe --remote-debugging-port=9223 

命令运行后会自动打开一个网页,后面不要关闭,关了会控制不了,检查运行情况:

curl http://localhost:9223/json/version 

正常回返回一个json:

在这里插入图片描述


监听所有端口:

netsh interface portproxy add v4tov4 listenport=9223 listenaddress=0.0.0.0 connectport=9223 connectaddress=127.0.0.1 

到这一步就可以在OpenClaw控制浏览器进行检索信息了,也可以将需求通过飞书的对话框告诉的机器人去操作。

补充

QQ插件:https://github.com/sliverp/qqbot

Read more

02-mcp-server案例分享-Excel 表格秒变可视化图表 HTML 报告,就这么简单

02-mcp-server案例分享-Excel 表格秒变可视化图表 HTML 报告,就这么简单

1.前言 MCP Server(模型上下文协议服务器)是一种基于模型上下文协议(Model Context Protocol,简称MCP)构建的轻量级服务程序,旨在实现大型语言模型(LLM)与外部资源之间的高效、安全连接。MCP协议由Anthropic公司于2024年11月开源,其核心目标是解决AI应用中数据分散、接口不统一等问题,为开发者提供标准化的接口,使AI模型能够灵活访问本地资源和远程服务,从而提升AI助手的响应质量和工作效率。 MCP Server 的架构与工作原理 MCP Server 采用客户端-服务器(Client-Server)架构,其中客户端(MCP Client)负责与服务器建立连接,发起请求,而服务器端则处理请求并返回响应。这种架构确保了数据交互的高效性与安全性。例如,客户端可以向服务器发送请求,如“查询数据库中的某个记录”或“调用某个API”,而服务器则根据请求类型,调用相应的资源或工具,完成任务并返回结果。 MCP Server 支持动态发现和实时更新机制。例如,当新的资源或工具被添加到服务器时,

By Ne0inhk
将现有 REST API 转换为 MCP Server工具 -higress

将现有 REST API 转换为 MCP Server工具 -higress

Higress 是一款云原生 API 网关,集成了流量网关、微服务网关、安全网关和 AI 网关的功能。 它基于 Istio 和 Envoy 开发,支持使用 Go/Rust/JS 等语言编写 Wasm 插件。 提供了数十个通用插件和开箱即用的控制台。 Higress AI 网关支持多种 AI 服务提供商,如 OpenAI、DeepSeek、通义千问等,并具备令牌限流、消费者鉴权、WAF 防护、语义缓存等功能。 MCP Server 插件配置 higress 功能说明 * mcp-server 插件基于 Model Context Protocol (MCP),专为 AI 助手设计,

By Ne0inhk
MCP 工具速成:npx vs. uvx 全流程安装指南

MCP 工具速成:npx vs. uvx 全流程安装指南

在现代 AI 开发中,Model Context Protocol(MCP)允许通过外部进程扩展模型能力,而 npx(Node.js 生态)和 uvx(Python 生态)则是两种即装即用的客户端工具,帮助你快速下载并运行 MCP 服务器或工具包,无需全局安装。本文将从原理和对比入手,提供面向 Windows、macOS、Linux 的详细安装、验证及使用示例,确保你能在本地或 CI/CD 流程中无缝集成 MCP 服务器。 1. 工具简介 1.1 npx(Node.js/npm) npx 是 npm CLI(≥v5.2.0)

By Ne0inhk
解锁Dify与MySQL的深度融合:MCP魔法开启数据新旅程

解锁Dify与MySQL的深度融合:MCP魔法开启数据新旅程

文章目录 * 解锁Dify与MySQL的深度融合:MCP魔法开启数据新旅程 * 引言:技术融合的奇妙开篇 * 认识主角:Dify、MCP 与 MySQL * (一)Dify:大语言模型应用开发利器 * (二)MCP:连接的桥梁 * (三)MySQL:经典数据库 * 准备工作:搭建融合舞台 * (一)环境搭建 * (二)安装与配置 Dify * (三)安装与配置 MySQL * 关键步骤:Dify 与 MySQL 的牵手过程 * (一)安装必要插件 * (二)配置 MCP SSE * (三)创建 Dify 工作流 * (四)配置 Agent 策略 * (五)搭建MCP

By Ne0inhk