clawdbot (openclaw) + discord 机器人部署指南学习教程

clawdbot (openclaw) + discord 机器人部署指南学习教程

本文介绍了基于 ClawdBot(OpenClaw)框架在 Discord 平台部署 AI 对话机器人的完整流程。内容包括:Discord Application 与 Bot 的创建配置、OAuth2 权限管理、pnpm 全局安装、Daemon 服务配置、多模型 API 接入(支持智谱 GLM 等主流大模型)、Gateway 服务启动与调试等核心环节。

一、网络要求

  • 魔法
  • 确保网络能够访问Discord服务
  • TUN模式(关键哦)

二、Discord平台配置

2.1 访问Discord开发者平台

访问地址:https://discord.com/developers/applications

2.2 创建应用程序

  1. 登录Discord开发者平台
  2. 点击"New Application"创建新应用
  3. 输入应用名称并确认创建
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

2.3 创建Bot

  1. 在应用设置页面,找到"Bot"选项卡
  2. 点击"Add Bot"创建机器人
  3. 确认创建Bot
  4. 找到"Token"部分
  5. 点击"Copy"复制Token

注意:请妥善保管Token,不要泄露

在这里插入图片描述

2.4 配置Bot权限

  1. 在Bot设置页面中,配置所需的权限
  2. 根据实际需求勾选相应的权限选项

保存配置

在这里插入图片描述

2.5 生成邀请链接

  1. 进入"OAuth2" → “URL Generator”
  2. 选择所需的作用域(Scopes)
  3. 选择Bot权限

复制生成的邀请链接

在这里插入图片描述

2.6 添加Bot到服务器

  1. 打开生成的邀请链接
  2. 选择要添加Bot的Discord服务器
  3. 确认授权
  4. Bot将自动加入到指定的服务器
在这里插入图片描述

三、clawdbot (openclaw) 安装配置

clawdBot (openclaw) 开发者平台:https://docs.openclaw.ai/

3.1 全局安装ClawdBot

pnpmadd -g clawdbot@latest 
说明:官方已将项目改名为 openclaw,但 clawdbot 命令仍然可以正常使用。

3.2 初始化配置

执行初始化命令:

clawdbot onboard --install-daemon 

3.3 配置参数

按照提示依次填写以下信息:

3.3.1 配置AI模型
  • 选择您使用的AI模型提供商
  • 示例:智谱GLM(根据实际使用的模型自行调整)
  • 输入对应的API Key

提前准备

  • 确保已获取对应AI服务的API Key

确认API Key的有效性和配额!

在这里插入图片描述
3.3.2 配置Discord Bot Token
  • 输入在步骤2.3中复制的Bot Token

确保Token正确无误

在这里插入图片描述


在这里插入图片描述

3.4 启动Gateway服务

执行以下命令启动服务:

clawdbot gateway --port 18789 --verbose 

参数说明

  • --port 18789:指定服务端口为18789
  • --verbose:启用详细日志输出在这里插入图片描述
在这里插入图片描述

四、使用机器人

4.1 与机器人对话

  1. 打开Discord应用
  2. 进入已添加Bot的服务器
  3. 在频道中@机器人名称
  4. 输入您的消息即可开始对话

示例

@机器人名称 你好,你是谁? 
在这里插入图片描述

故障排查

常见问题

  1. Bot无法响应
    • 检查VPN连接是否正常
    • 确认Gateway服务是否正在运行
    • 验证Bot Token是否正确
  2. API调用失败
    • 检查API Key是否有效
    • 确认API配额是否充足
    • 查看verbose日志获取详细错误信息
  3. 权限问题
    • 确认Bot在Discord服务器中拥有必要的权限
    • 检查频道权限设置

注意事项

  1. 安全提醒
    • 切勿将Bot Token和API Key泄露给他人哈
    • 建议定期更换Token和密钥
  2. 网络要求
    • 始终保持VPN连接稳定
    • 确保网络能够访问Discord和AI服务

附录

相关链接

Read more

FPGA实现HDMI输出完全攻略:从接口原理到4K显示全流程(附代码模板+调试技巧)

FPGA实现HDMI输出完全攻略:从接口原理到4K显示全流程(附代码模板+调试技巧) 📚 目录导航 文章目录 * FPGA实现HDMI输出完全攻略:从接口原理到4K显示全流程(附代码模板+调试技巧) * 📚 目录导航 * 概述 * 一、HDMI基础概念 * 1.1 HDMI接口介绍 * 1.1.1 HDMI接口历史与发展 * 1.1.2 HDMI接口引脚定义 * 1.1.3 HDMI版本对比 * 1.2 HDMI版本演进 * 1.2.1 HDMI 1.4特性 * 1.2.2 HDMI 2.0特性 * 1.2.3 HDMI 2.1特性

By Ne0inhk
Nano Banana进行AI绘画中文总是糊?一招可重新渲染,清晰到可直接汇报

Nano Banana进行AI绘画中文总是糊?一招可重新渲染,清晰到可直接汇报

文章目录 * 1. 为什么 Nano Banana 生成的中文经常不清晰? * 2. 解决思路:Nano Banana + Seedream 4.5 的两段式工作流 * 3. 实战:先用 Nano Banana 生成架构图(中文会糊) * 4. 部署 Personal LLM API,并配置 Seedream 4.5 * 5. 用 Cherry Studio 配置已部署的 LLM 接口 * 6. 关键一步:用 Seedream 4.5 对“中文文字重新渲染” * 7. 效果对比:字清晰、无错位、图形保持不变

By Ne0inhk

5分钟部署麦橘超然Flux,低显存设备也能玩转AI绘画

5分钟部署麦橘超然Flux,低显存设备也能玩转AI绘画 1. 为什么你值得花5分钟试试这个Flux控制台 你是不是也遇到过这些情况: * 想试试最新的Flux模型,但显卡只有8GB甚至6GB,一加载就报“CUDA out of memory”; * 下载完模型还要手动配置路径、改代码、调参数,折腾两小时还没看到一张图; * 网页版用着方便,但担心隐私泄露、生成被限速、图片被缓存; 别再纠结了——麦橘超然 - Flux 离线图像生成控制台,就是为这类真实场景而生的。它不是又一个需要编译、调参、查文档的实验项目,而是一个开箱即用的本地Web服务:模型已打包进镜像,float8量化技术让DiT主干网络显存占用直降近一半,Gradio界面简洁到连提示词输入框都标好了占位符,连SSH隧道怎么转发都给你写好了命令。 更重要的是,它真的能在你的旧笔记本、远程小内存服务器、甚至实验室里那台只配了RTX 3060的工位机上跑起来。本文不讲原理推导,不堆术语,就带你从零开始,5分钟内完成部署、打开浏览器、输入第一句描述、亲眼看到AI画出赛博朋克雨夜街道——所有操作一步接一步,复制粘贴就能

By Ne0inhk

简单易学的分离式部署小米智能家居Miloco方法

一、安装环境 * Windows用户:安装WSL2以及Docker * macOS/Linux用户:安装Docker 此处不再赘述,网上随便找个教程即可。特别地,对于Windows用户来说,你需要将 WSL2 的网络模式设置为 Mirrored。 二、使用Docker部署Miloco后端 以下均为bash命令。请Windows用户进入WSL2 / Linux、macOS用户进入终端操作: mkdir miloco cd milico vi docker-compose.yml 以下是compose的内容(不会使用vi的同学可以傻瓜式操作:先按i,再使用粘贴功能,然后按冒号,输入wq然后回车,记得关闭输入法): services:backend:container_name: miloco-backend image: ghcr.nju.edu.cn/xiaomi/miloco-backend:latest network_mode:

By Ne0inhk