clawdbot (openclaw) + discord 机器人部署指南学习教程

clawdbot (openclaw) + discord 机器人部署指南学习教程

本文介绍了基于 ClawdBot(OpenClaw)框架在 Discord 平台部署 AI 对话机器人的完整流程。内容包括:Discord Application 与 Bot 的创建配置、OAuth2 权限管理、pnpm 全局安装、Daemon 服务配置、多模型 API 接入(支持智谱 GLM 等主流大模型)、Gateway 服务启动与调试等核心环节。

一、网络要求

  • 魔法
  • 确保网络能够访问Discord服务
  • TUN模式(关键哦)

二、Discord平台配置

2.1 访问Discord开发者平台

访问地址:https://discord.com/developers/applications

2.2 创建应用程序

  1. 登录Discord开发者平台
  2. 点击"New Application"创建新应用
  3. 输入应用名称并确认创建
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

2.3 创建Bot

  1. 在应用设置页面,找到"Bot"选项卡
  2. 点击"Add Bot"创建机器人
  3. 确认创建Bot
  4. 找到"Token"部分
  5. 点击"Copy"复制Token

注意:请妥善保管Token,不要泄露

在这里插入图片描述

2.4 配置Bot权限

  1. 在Bot设置页面中,配置所需的权限
  2. 根据实际需求勾选相应的权限选项

保存配置

在这里插入图片描述

2.5 生成邀请链接

  1. 进入"OAuth2" → “URL Generator”
  2. 选择所需的作用域(Scopes)
  3. 选择Bot权限

复制生成的邀请链接

在这里插入图片描述

2.6 添加Bot到服务器

  1. 打开生成的邀请链接
  2. 选择要添加Bot的Discord服务器
  3. 确认授权
  4. Bot将自动加入到指定的服务器
在这里插入图片描述

三、clawdbot (openclaw) 安装配置

clawdBot (openclaw) 开发者平台:https://docs.openclaw.ai/

3.1 全局安装ClawdBot

pnpmadd -g clawdbot@latest 
说明:官方已将项目改名为 openclaw,但 clawdbot 命令仍然可以正常使用。

3.2 初始化配置

执行初始化命令:

clawdbot onboard --install-daemon 

3.3 配置参数

按照提示依次填写以下信息:

3.3.1 配置AI模型
  • 选择您使用的AI模型提供商
  • 示例:智谱GLM(根据实际使用的模型自行调整)
  • 输入对应的API Key

提前准备

  • 确保已获取对应AI服务的API Key

确认API Key的有效性和配额!

在这里插入图片描述
3.3.2 配置Discord Bot Token
  • 输入在步骤2.3中复制的Bot Token

确保Token正确无误

在这里插入图片描述


在这里插入图片描述

3.4 启动Gateway服务

执行以下命令启动服务:

clawdbot gateway --port 18789 --verbose 

参数说明

  • --port 18789:指定服务端口为18789
  • --verbose:启用详细日志输出在这里插入图片描述
在这里插入图片描述

四、使用机器人

4.1 与机器人对话

  1. 打开Discord应用
  2. 进入已添加Bot的服务器
  3. 在频道中@机器人名称
  4. 输入您的消息即可开始对话

示例

@机器人名称 你好,你是谁? 
在这里插入图片描述

故障排查

常见问题

  1. Bot无法响应
    • 检查VPN连接是否正常
    • 确认Gateway服务是否正在运行
    • 验证Bot Token是否正确
  2. API调用失败
    • 检查API Key是否有效
    • 确认API配额是否充足
    • 查看verbose日志获取详细错误信息
  3. 权限问题
    • 确认Bot在Discord服务器中拥有必要的权限
    • 检查频道权限设置

注意事项

  1. 安全提醒
    • 切勿将Bot Token和API Key泄露给他人哈
    • 建议定期更换Token和密钥
  2. 网络要求
    • 始终保持VPN连接稳定
    • 确保网络能够访问Discord和AI服务

附录

相关链接

Read more

豆包写的论文怎么过AIGC检测?实测这几款工具有效

豆包写的论文怎么过AIGC检测?实测这几款工具有效

豆包写的论文怎么过AIGC检测?实测这几款工具有效 TL;DR:豆包生成的论文AI率通常在70%-90%,直接提交肯定过不了。推荐用嘎嘎降AI(85%→8%,4.8元/千字)或比话降AI(可降至5%以下)处理。让豆包自己改没用。 豆包写论文的AI率问题 豆包是字节跳动出的AI助手,写论文确实很方便——输入主题就能生成大纲,继续追问就能补充内容,比ChatGPT更懂中文学术表达。但问题在于,豆包生成的内容AI特征同样非常明显,拿去做AIGC检测基本都是70%以上的AI率。我用豆包写了一篇3000字的文献综述测试,知网检测直接显示85%,完全没法用。 有人可能会想:豆包是国产AI,检测系统应该识别不出来吧?其实不是这样的。AIGC检测系统识别的是「AI特征」,不是「哪个AI生成的」。无论是豆包、DeepSeek还是ChatGPT,生成的内容都有相似的特征:句式工整、逻辑过于流畅、大量使用结构化表达。这些特征恰好是检测系统重点识别的对象。 让豆包自己改?效果很差 我试过让豆包帮忙修改自己生成的内容。Prompt写了各种花样:

VS-CODE 里的github copilot 不支持自己配置模型api

1. 关于配置自定义 Claude API 的支持情况 * 结论:不支持。 * 机制说明: * VS Code 官方 GitHub Copilot 扩展(包括 Agent 功能)强制通过 GitHub 的代理服务器进行鉴权和路由。 * 模型切换:GitHub Copilot 允许在订阅权限范围内切换底层模型(例如从 GPT-4o 切换至 Claude 3.5 Sonnet),但这使用的是 GitHub 的企业/个人订阅配额。 * API Key 限制:无法在官方扩展设置中输入个人的 sk-ant-... (Anthropic API Key) 或自定义 Endpoint。 * 替代方案(非官方扩展): * 若必须使用个人 Claude API

AIGC 与艺术创作:机遇

AIGC 与艺术创作:机遇

目录 一.AIGC 的崛起与艺术领域的变革 二.AIGC 在不同艺术形式中的应用 1.绘画与视觉艺术 2.音乐创作 三.AIGC 为艺术创作带来的机遇 1.激发创意灵感 2.提高创作效率 总结 在当今数字化时代,人工智能生成内容(AIGC)正以惊人的速度重塑着艺术创作的格局,为艺术家们带来了令人振奋的新机遇。 一.AIGC 的崛起与艺术领域的变革 随着人工智能技术的不断进步,AIGC 逐渐在艺术领域崭露头角。它依托强大的机器学习算法和深度学习模型,能够分析大量的艺术作品数据,并从中学习各种风格、技巧和表现形式。 例如,OpenAI 的 DALL・E 2 是一款强大的图像生成模型。艺术家可以输入描述 “一只穿着太空服的猫在月球上漫步”,DALL・E 2 就能生成一幅非常逼真且富有创意的图像。这一技术突破使得艺术创作不再局限于传统的手工绘制,而是可以通过算法来实现。艺术家们可以利用这些工具来快速探索不同的创意方向,

本地部署LLaMA-Factory全指南

本地部署LLaMA-Factory全指南 在大模型技术飞速发展的今天,如何让普通人也能轻松定制属于自己的AI助手?这曾是一个遥不可及的梦想。但随着 LLaMA-Factory 这类开源项目的出现,微调一个大语言模型不再只是顶级实验室的专利。它把复杂的训练流程封装成可点击的操作,甚至不需要写一行代码,就能完成从数据准备到模型部署的全过程。 如果你有一块消费级显卡,比如 RTX 3060 或更高,那么你已经具备了动手实践的基础条件。本文将带你一步步搭建环境、加载模型、配置训练参数,并最终生成一个能理解中文指令的个性化 Qwen 模型——整个过程就像使用图形化软件一样自然流畅。 硬件与环境检查:你的设备准备好了吗? 再强大的框架也离不开硬件支撑。虽然 LLaMA-Factory 支持 CPU 推理,但真正想跑通一次像样的微调任务,GPU 是必不可少的。 打开终端,先执行这条命令: nvidia-smi 如果能看到类似下面的信息,说明你的 NVIDIA 显卡驱动和 CUDA 环境基本正常: +-----------------------------------------