clawdbot (openclaw) + discord 机器人部署指南学习教程

clawdbot (openclaw) + discord 机器人部署指南学习教程

本文介绍了基于 ClawdBot(OpenClaw)框架在 Discord 平台部署 AI 对话机器人的完整流程。内容包括:Discord Application 与 Bot 的创建配置、OAuth2 权限管理、pnpm 全局安装、Daemon 服务配置、多模型 API 接入(支持智谱 GLM 等主流大模型)、Gateway 服务启动与调试等核心环节。

一、网络要求

  • 魔法
  • 确保网络能够访问Discord服务
  • TUN模式(关键哦)

二、Discord平台配置

2.1 访问Discord开发者平台

访问地址:https://discord.com/developers/applications

2.2 创建应用程序

  1. 登录Discord开发者平台
  2. 点击"New Application"创建新应用
  3. 输入应用名称并确认创建
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

2.3 创建Bot

  1. 在应用设置页面,找到"Bot"选项卡
  2. 点击"Add Bot"创建机器人
  3. 确认创建Bot
  4. 找到"Token"部分
  5. 点击"Copy"复制Token

注意:请妥善保管Token,不要泄露

在这里插入图片描述

2.4 配置Bot权限

  1. 在Bot设置页面中,配置所需的权限
  2. 根据实际需求勾选相应的权限选项

保存配置

在这里插入图片描述

2.5 生成邀请链接

  1. 进入"OAuth2" → “URL Generator”
  2. 选择所需的作用域(Scopes)
  3. 选择Bot权限

复制生成的邀请链接

在这里插入图片描述

2.6 添加Bot到服务器

  1. 打开生成的邀请链接
  2. 选择要添加Bot的Discord服务器
  3. 确认授权
  4. Bot将自动加入到指定的服务器
在这里插入图片描述

三、clawdbot (openclaw) 安装配置

clawdBot (openclaw) 开发者平台:https://docs.openclaw.ai/

3.1 全局安装ClawdBot

pnpmadd -g clawdbot@latest 
说明:官方已将项目改名为 openclaw,但 clawdbot 命令仍然可以正常使用。

3.2 初始化配置

执行初始化命令:

clawdbot onboard --install-daemon 

3.3 配置参数

按照提示依次填写以下信息:

3.3.1 配置AI模型
  • 选择您使用的AI模型提供商
  • 示例:智谱GLM(根据实际使用的模型自行调整)
  • 输入对应的API Key

提前准备

  • 确保已获取对应AI服务的API Key

确认API Key的有效性和配额!

在这里插入图片描述
3.3.2 配置Discord Bot Token
  • 输入在步骤2.3中复制的Bot Token

确保Token正确无误

在这里插入图片描述


在这里插入图片描述

3.4 启动Gateway服务

执行以下命令启动服务:

clawdbot gateway --port 18789 --verbose 

参数说明

  • --port 18789:指定服务端口为18789
  • --verbose:启用详细日志输出在这里插入图片描述
在这里插入图片描述

四、使用机器人

4.1 与机器人对话

  1. 打开Discord应用
  2. 进入已添加Bot的服务器
  3. 在频道中@机器人名称
  4. 输入您的消息即可开始对话

示例

@机器人名称 你好,你是谁? 
在这里插入图片描述

故障排查

常见问题

  1. Bot无法响应
    • 检查VPN连接是否正常
    • 确认Gateway服务是否正在运行
    • 验证Bot Token是否正确
  2. API调用失败
    • 检查API Key是否有效
    • 确认API配额是否充足
    • 查看verbose日志获取详细错误信息
  3. 权限问题
    • 确认Bot在Discord服务器中拥有必要的权限
    • 检查频道权限设置

注意事项

  1. 安全提醒
    • 切勿将Bot Token和API Key泄露给他人哈
    • 建议定期更换Token和密钥
  2. 网络要求
    • 始终保持VPN连接稳定
    • 确保网络能够访问Discord和AI服务

附录

相关链接

Read more

VScode Cline 中免费使用 gpt 5.4 和copilot 中的模型

VScode Cline 中免费使用 gpt 5.4 和copilot 中的模型

前提:vscode 安装 cline 插件(默认都会), gpt plus 账户(联系我获取), github copilot 会员权益账户(有教程链接) 一、通过授权登录 ChatGPT plus 账户,使用gpt-5.4 1、打开cline 设置; 2、API Provider选择:ChatGPT Subscription,授权登录即可;   3、显示如下即可使用gpt -5.4(1M上下文,相比与5.3-codex 400k 提升了1倍多); 二、使用github copilot 中的模型; 1、安装 github copilot 插件并登录你有会员权益的 github 账户;

llama.cpp量化模型部署实战:从模型转换到API服务

1. 为什么你需要关注llama.cpp:让大模型在普通电脑上跑起来 如果你对AI大模型感兴趣,肯定听说过动辄需要几十GB显存的“庞然大物”。想在自己的电脑上跑一个7B参数的模型,以前可能得配一张昂贵的专业显卡。但现在,情况不一样了。我今天要跟你聊的 llama.cpp,就是那个能让大模型“瘦身”并飞入寻常百姓家的神奇工具。 简单来说,llama.cpp是一个用C/C++编写的开源项目,它的核心目标只有一个:用最高效的方式,在消费级硬件(比如你的笔记本电脑CPU)上运行大型语言模型。它不像PyTorch那样是个庞大的深度学习框架,它更像一个“推理引擎”,专注于把训练好的模型,以最小的资源消耗跑起来。 我刚开始接触大模型部署时,也被各种复杂的依赖和巨大的资源需求劝退过。直到用了llama.cpp,我才发现,原来在我的MacBook Pro上,也能流畅地和Llama 2这样的模型对话。这背后的功臣,主要就是两点:纯C/C++实现带来的极致性能,以及模型量化技术带来的体积与速度革命。量化这个词听起来有点技术,你可以把它想象成给模型“压缩图片”

极致压缩:Whisper.cpp 量化版本清单与 ggml 格式模型下载

Whisper.cpp 量化模型下载指南 Whisper.cpp 是 OpenAI Whisper 语音识别模型的高效 C++ 实现,支持量化技术来减小模型尺寸,实现“极致压缩”。量化通过降低模型参数的精度(如从 32 位浮点数到 4 位整数)来减少存储和计算需求,同时保持合理的准确性。ggml 格式是一种轻量级模型格式,专为资源受限设备优化。以下信息基于 Whisper.cpp 官方 GitHub 仓库(真实可靠),我将逐步引导您获取量化版本清单和下载链接。 1. 量化版本清单 Whisper.cpp 支持多种量化级别,每种对应不同的压缩率和精度权衡。以下是常见量化版本清单(基于最新官方数据): * q4_0:4 位量化,极致压缩,模型尺寸最小,适合内存受限设备(如嵌入式系统)。精度损失较高。

VsCode 远程 Copilot 调用 Claude Agent 提示 “无效请求”?参数配置错误的修正

解决 VsCode 远程 Copilot 调用 Claude Agent 提示“无效请求”问题 当在 VsCode 中通过远程 Copilot 调用 Claude Agent 时,若出现“无效请求”错误提示,通常与参数配置错误有关。以下方法可帮助排查和修正问题。 检查 API 密钥配置 确保 Claude Agent 的 API 密钥已正确配置在 VsCode 设置中。打开 VsCode 的设置文件(settings.json),验证以下参数是否完整: "claude.apiKey": "your_api_key_here"