用OpenClaw做qq ai办公机器人(支持群聊关键词触发+自定义域名发送任意邮件)

用OpenClaw做qq ai办公机器人(支持群聊关键词触发+自定义域名发送任意邮件)

1.OpenClaw对接QQ(qq账号当机器人使用)

在任意文件夹创建项目文件夹napcat及需要的文件夹,并创建docker-compose.yml

mkdir -p napcat && cd napcat
mkdir -p config .config logs

docker-compose.yml内容参考

services: napcat: image: mlikiowa/napcat-docker:latest container_name: napcat restart: unless-stopped environment: - NAPCAT_UID=${NAPCAT_UID:-1000} - NAPCAT_GID=${NAPCAT_GID:-1000} - MESSAGE_POST_FORMAT=string # 网络服务(根据需求启用) - HTTP_ENABLE=true - HTTP_HOST=0.0.0.0 - HTTP_PORT=3000 - WS_ENABLE=true - WS_HOST=0.0.0.0 - WS_PORT=3001 ports: - "3000:3000" - "3001:3001" - "6099:6099" volumes: # 1. NapCat 配置(网络设置、WebUI token) - ./config:/app/napcat/config # 2. QQ 数据(登录凭证、持久化登录状态) # 官方路径是 /app/.config/QQ, - ./.config:/app/.config/QQ # 3. 日志(可选) - ./logs:/app/napcat/logs # 注意:没有 network_mode: bridge,与 ports 冲突 stdin_open: true tty: true

启动docker,并执行以下命令

NAPCAT_UID=$(id -u) NAPCAT_GID=$(id -g) docker-compose up -d
命令拆解含义
NAPCAT_UID=$(id -u)设置环境变量 NAPCAT_UID 为当前用户的用户 ID
NAPCAT_GID=$(id -g)设置环境变量 NAPCAT_GID 为当前用户的组 ID
docker-compose up -d在后台启动 Docker Compose 服务

因为NapCat 容器内以 NAPCAT_UID 用户运行,需要与宿主机用户权限匹配,所以动态获取当前用户 ID,环境变量传递给 Docker Compose

启动完成

执行docker-compose logs -f,手机qq扫描登录日志的二维码登录

也可以根据日志的token打开http://127.0.0.1:6099/webui?token=你的token,输入账号和密码

如果提示需要验证码,暂时不支持的话就扫码登录,登录后只要日志没有显示离线就可以退出手机qq

点击网络配置,添加http server(可选)和websocket server

复制websocket server的token

两个插件选一个即可,建议用openclaw_qq,因为目前@izhimu/qq插件似乎群里有人发消息就一定会回复且不支持/model等命令(可能要自己研究怎么配置或修改源码?),而openclaw_qq在群@机器人的名字或设置关键词触发

插件1(推荐):

在另一个终端执行cd ~/.openclaw/extensions && git clone https://github.com/constansino/openclaw_qq.git qq命令给openclaw安装插件,然后执行cd ~/.openclaw/extensions/qq && pnpm install 2>&1 | tail -20编译安装

插件2:

执行pnpm openclaw plugins install @izhimu/qq给openclaw安装插件,如果你的openclaw不是通过pnpm安装则去掉pnpm,下同

输入pnpm openclaw gateway restart重启,然后打开http://127.0.0.1:18789/channels,粘贴websocket的token,点击保存,过一会看到yes即成功连接

如果qq机器人回复出现Connection error(这里已经换成小号当QQ机器人,防止主号乱发消息被封),去用户目录的.opneclaw里,比如/Users/Zhuanz/.openclaw,打开openclaw.json,找到channels,再找qq,将enable改为true;如果还是这样,看看agents.defaults.model.primary是不是本地 ollama 模型且此时没启动ollama(注意在网页或tui输入/model等命令要在对应的qq聊天session执行才对qq机器人有效)

之后执行pnpm openclaw gateway restart或其他命令重启,测试效果,如果你的openclaw不是通过pnpm安装则去掉pnpm,下同

用@izhimu/qq插件的情况

已经成功回复,但如果是用@izhimu/qq插件不会对聊天中直接发/model等命令执行且给结果,只有让对话中强调执行这个命令才有效,但在openclaw_qq可以直接执行命令给结果(下图)

openclaw_qq配置参考

插件功能差异对比(原因:目前这个QQ 插件缺少 CommandAuthorized 参数)

插件finalizeInboundContext 参数命令支持
飞书包含 CommandAuthorized: commandAuthorized✅ 支持
QQ缺乏 CommandAuthorized 参数❌ 不支持

两个 QQ 插件功能对比

1)配置项对比

功能@izhimu/qqopenclaw_qq说明
wsUrlWebSocket 地址
accessToken访问令牌
enable启用开关
requireMention✅ 默认 true群聊需要 @ 才触发
keywordTriggers关键词唤醒
admins管理员列表
adminOnlyChat仅管理员可触发
allowedGroups群白名单
blockedUsers用户黑名单
systemPrompt自定义人设
historyLimit历史消息注入
autoApproveRequests自动通过好友 / 群邀请
enableTTS语音回复
enableGuildsQQ 频道支持
rateLimitMs✅ 默认 1000ms发送限速防风控
antiRiskModeURL 风控规避
maxMessageLength✅ 默认 4000消息分片
formatMarkdownMarkdown 转纯文本
showProcessingStatus群名片显示 "输入中"
sharedMediaHostDir跨容器媒体共享

2)核心功能差异

功能@izhimu/qqopenclaw_qq原因
群聊 @ 触发❌ 所有消息都回复✅ 默认仅 @ 触发新插件有 requireMention 配置
关键词唤醒✅ 如 "小助手"新插件有 keywordTriggers
管理员命令✅ /model, /status 等新插件实现了命令处理
/model 命令✅ 仅管理员新插件支持模型切换
群白名单新插件有 allowedGroups
用户黑名单新插件有 blockedUsers
风控优化✅ 限速、URL 规避新插件针对 QQ 风控设计
戳一戳响应新插件处理 poke 事件
自动通过请求新插件有 autoApproveRequests
消息去重新插件有 enableDeduplication
空回复兜底新插件有 enableEmptyReplyFallback

2.自定义域名发送邮件

打开https://resend.com/signup注,密码需要至少12位,注册完需去邮箱验证

打开邮箱进行验证

添加API key,并复制

查找能发邮件的skills(find-skills安装可见教程https://blog.ZEEKLOG.net/weixin_55221858/article/details/158179110

可执行npx skills add resend/resend-skills@send-email -g -y安装

测试成功,默认只能发注册resend账户的邮箱,要发送任意邮箱需添加域名

添加自己的域名,地区随便选,然后点击Add domain

点击允许接收,再点击添加记录

需要添加的全部记录清单

从这个界面可以看到需要添加以下记录:

类型主机记录(Name)记录值(Content)优先级用途
TXTresend._domainkeyp=MIGfMA0GCSqG[...]-DKIM 签名(必需)
MXsendfeedback-smtp.[...]amazonses.com10退信处理(必需)
TXTsendv=spf1 include[...]nses.com ~all-SPF 验证(必需)
TXT_dmarcv=DMARC1; p=none;-DMARC 策略(可选但强烈建议)
MX@inbound-smtp.e[...]amazonaws.com10接收邮件(可选,如果你不需要收邮件可以不填)

以阿里云为例

验证通过,由Pending变成Verified

成功接收邮件

参考教程:

1.https://blog.ZEEKLOG.net/qq_14956715/article/details/157942635

2.https://blog.ZEEKLOG.net/m0_60046831/article/details/157696672

3.https://napneko.github.io/

创作不易,禁止抄袭,转载请附上原文链接及标题

Read more

学术党必备神器:paperxie 降重复 | AIGC 率功能,让论文检测一次通关

学术党必备神器:paperxie 降重复 | AIGC 率功能,让论文检测一次通关

paperxie-免费查重复率aigc检测/开题报告/毕业论文/智能排版/文献综述/aippt https://www.paperxie.cn/weight?type=1https://www.paperxie.cn/weight?type=1https://www.paperxie.cn/weight?type=1 在 AI 写作普及的今天,学术论文不仅要应对传统的重复率检测,还要面对 AIGC 生成内容的识别筛查。对于高校师生、科研人员来说,如何既保留内容质量,又能顺利通过知网、维普等平台的双重检测,成了一大难题。paperxie 降重复 | AIGC 率功能的出现,正是为了解决这一痛点,凭借全新升级的 AI 语言大模型,为学术内容提供了专业的降重降 AI 率解决方案。 一、

RTX 3060 12G也能跑7B模型?手把手教你用llama.cpp量化部署CodeLlama(含性能对比)

在RTX 3060 12G上流畅运行70亿参数编程助手:一份详尽的量化部署实战指南 最近和几位独立开发者朋友聊天,大家普遍有个误解,认为像CodeLlama-7B这样的“大”模型,没有高端专业卡就玩不转。动辄几十GB的显存需求,似乎把消费级显卡彻底挡在了门外。但实际情况真的如此吗?我手头正好有一张“过气”的甜品卡RTX 3060 12GB,抱着试一试的心态,折腾了几天,结果出乎意料地好。通过一系列巧妙的优化技术,这张卡不仅能跑,还能跑得相当流畅,完全能满足个人开发、代码补全和辅助编程的需求。这篇文章,就是想把这段从“不可能”到“丝滑运行”的完整过程记录下来,分享给同样预算有限但渴望体验前沿AI工具的同行们。我们将绕过那些空洞的理论,直接进入实战,从环境搭建、模型处理、参数调优到性能压榨,一步步拆解,让你也能在自己的机器上复现一个高效的本地编程助手。 1. 打破显存壁垒:理解量化与优化的核心逻辑 为什么一个70亿参数的模型,在常规的FP16精度下需要近20GB的显存?这不仅仅是权重数据本身的问题。一个模型在推理时,显存占用主要来自三个部分:模型权重、KV-Cache(

Stable Diffusion 3.5 FP8镜像是否支持Mac M系列芯片?Rosetta转译实测

Stable Diffusion 3.5 FP8镜像是否支持Mac M系列芯片?Rosetta转译实测 在AI绘画圈里,Stable Diffusion 3.5的发布就像一场“视觉地震”💥——提示词理解更准、排版逻辑更强、细节还原更真,几乎把文生图模型拉到了新的天花板。但问题也来了:这么猛的模型,动不动就要16GB显存起步,普通用户哪扛得住? 于是,FP8量化版镜像(stable-diffusion-3.5-fp8) 横空出世,直接把模型体积和内存占用砍掉近半,堪称“轻量化救星”✨。可问题是:它能不能跑在我们手里的MacBook上?尤其是那些M1/M2/M3芯片的设备? 毕竟,Apple Silicon虽然性能强、能效高,但它是ARM架构啊!而绝大多数AI工具链都是为x86+GPU生态设计的。这就好比你买了辆特斯拉,结果发现充电口是国标,而家里装的是欧标插座⚡️——得靠“转接头”才行。 这个“转接头”,就是

SmolVLA高算力适配:TensorRT加速可行性分析与ONNX导出实操

SmolVLA高算力适配:TensorRT加速可行性分析与ONNX导出实操 1. 项目背景与核心价值 SmolVLA作为一款专为经济实惠机器人技术设计的紧凑型视觉-语言-动作模型,在资源受限环境下展现出了令人印象深刻的性能。这个约5亿参数的模型能够同时处理视觉输入、语言指令和动作输出,为机器人控制提供了端到端的解决方案。 在实际部署中,我们经常面临一个关键挑战:如何在保持模型精度的同时,进一步提升推理速度以满足实时控制需求?这就是TensorRT加速技术发挥作用的地方。通过将SmolVLA模型转换为TensorRT引擎,我们有望获得显著的性能提升,特别是在NVIDIA GPU硬件上。 本文将带你深入了解SmolVLA模型的TensorRT加速可行性,并提供详细的ONNX导出实操指南,帮助你在自己的机器人项目中实现更高效的推理性能。 2. TensorRT加速技术解析 2.1 TensorRT的核心优势 TensorRT是NVIDIA推出的高性能深度学习推理优化器和运行时库,它通过多种技术手段提升模型推理效率: * 图层融合:将多个连续的操作层合并为单个内核,减少内