教你一步步在 服务器/本地(Linux/Windows) 部署鸣潮QQ机器人,并将其接入大语言模型,实现通过机器人进行库街区签到、练度查询、攻略查询等功能 (1)

准备工作

一台轻量级服务器/ 本地windows/linux能够在服务器/本地 科学上网

环境部署

笔者所演示的环境为阿里云服务器(2核CPU,2GIB内存,40GIB系统盘),操作系统为

Ubuntu 24.04.



确保已成功安装Python环境(版本须>3.8, 建议>=3.12,不建议>=3.13



确保已成功安装git
如果你没有安装git且的系统是ubuntu,安装git只需要输入

如果系统为Windows,则自行前往 🔗官网 下载安装包安装即可

创建虚拟环境

从 Python 3.11 开始,Debian 和 Ubuntu 默认启用了 "Externally-Managed-Environment"(外部管理环境)保护机制,防止用户直接使用 pip 安装包到系统 Python 环境中,以避免破坏系统依赖。因此我们选择创建一个虚拟环境,每次使用之前只需要启动环境即可。

Windows可直接运行pip install uv

如果直接安装uv可能会出现以下错误

安装虚拟环境包



(退出虚拟环境的命令:deactivate)

激活虚拟环境并安装uv

# 激活虚拟环境 source mcvenv/bin/activate # 在虚拟环境安装uv pip install uv

安装插件

安装GsCore

早柚核心文档http://​https://docs.sayu-bot.com/​

进入opt/mcbot,输入如下命令

git clone https://github.com/Genshin-bots/gsuid_core.git --depth=1 --single-branch cd gsuid_core

运行GsCore

uv run core

忽视警告

如在服务器上部署请按照说明修改config.json中的host为0.0.0.0,如在本地部署请忽略





Ctrl + x 退出并保存,回车确认

配置服务器端口8765

由于Gscore运行在8765端口,我们需要在服务器的防火墙处添加对应的规则

安装XutheringWavesUID鸣潮插件

进入插件目录,安装XWUID

cd gsuid_core/plugins # 安装XutheringWavesUID git clone https://github.com/Loping151/XutheringWavesUID.git

安装库街区签到插件

# 在plugins目录下安装库街区签到插件 git clone --depth=1 https://github.com/Loping151/RoverSign

重启早柚插件

可以看到刚刚安装的插件成功导入了

安装nonebot

另外创建一个会话窗口,进入mcbot目录,运行虚拟环境,安装nonebot

cd opt/mcbot # 激活虚拟环境 source mcvenv/bin/activate # 安装nb pip install nb-cli-plugin-bootstrap nb-clil

运行nb bs,将文件夹命名为onebot,空格选中,回车确定

配置图如下

进入onebot目录,连接早柚插件,可能需要科学上网

cd onebot nb plugin install nonebot-plugin-genshinuid

运行onebot

nb run

配置防火墙端口8080

Read more

【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯冷启动数据的作用 * 冷启动数据设计 * 💯多阶段训练的作用 * 阶段 1:冷启动微调 * 阶段 2:推理导向强化学习(RL) * 阶段 3:拒绝采样与监督微调(SFT) * 阶段 4:多场景强化学习 * 💯代码示例:冷启动数据与多阶段训练的实现 * 1. 冷启动微调阶段 * 作用与应用: * 2. 推理导向的强化学习阶段 * 作用与应用: * 3. 拒绝采样与监督微调阶段 * 作用与应用: * 4. 多场景强化学习 * 作用与应用: * 总体流程 * DeepSeek 中的应用 * 💯总结 💯前言 在人工智能领域,深度学习模型的训练和优化往往需要大量的标注数据和计算资源。然而,面对复杂任务时,即使是最先进的技术和大量的训练数据也未必能够保证模型的最优表现。DeepSeek

GitHub Copilot AI 编程超全使用教程,从入门到精通

GitHub Copilot AI 编程超全使用教程,从入门到精通

前言 作为 GitHub 推出的 AI 编程助手,GitHub Copilot 凭借强大的代码补全、自然语言交互、自动化开发等能力,成为了开发者提升编码效率的 “神器”。它能支持主流 IDE(VS Code、IntelliJ IDEA、Eclipse 等)、终端等多环境,还可自定义配置、切换 AI 模型,适配个人和团队的不同开发需求。本文结合 GitHub 官方文档和实际使用经验,用通俗易懂的方式讲解 Copilot 的完整使用方法,从环境搭建到高级技巧,再到故障排除,一站式搞定 Copilot AI 编程! 一、GitHub Copilot 核心能力一览 在开始使用前,先快速了解 Copilot 的核心功能,清楚它能帮我们解决哪些开发问题: 1. 智能代码补全:

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

提到提示词注入(Prompt Injection),大家的第一反应往往是精心构造的文本越狱指令。 而在图生图任务中,输入图像在本质上扮演了视觉提示词的角色,与文本指令共同指导生成模型。 基于这一视角,本文展示针对视觉提示词的注入攻击:通过PGD对抗攻击算法对输入图像进行像素级微调,使其生成的违规图像能够绕过开源大模型的NSFW安全检测机制。 临近毕业,感觉市场对提示词注入比较感兴趣,因本人读博期间一直研究对抗攻击算法,所以决定尝试用对抗攻击的思路完成提示词注入攻击,误导开源模型生成违规图像。 完整代码链接:https://github.com/YujiangLi0v0/Injection_Attack_Inpainting.git 目录 * 一、 NSFW防线:开源模型的安全过滤机制 * 二、 攻击场景定义 (Threat Model) * 三、 环境搭建 * 四、 核心攻击流程详解 * 4.1. 固定随机因子 * 4.2 数据预处理 * 4.3. 攻击部分 * 4.3.1 重写扩散模型推理过程

【AIGC文生图】通义万相2.1应用拓展与蓝耘云平台实践

【AIGC文生图】通义万相2.1应用拓展与蓝耘云平台实践

探索调参之道:通义万相2.1应用拓展与平台调优实践 近年来,随着生成模型不断迭代升级,通义万相在图像生成领域的表现愈发引人瞩目。相比于基础的文生图使用,如何在平台应用拓展和参数调优上发掘更大潜力,已成为众多开发者与工程师关注的热点。本文将从实际应用案例出发,分享一些调参心得与平台优化策略,并着重探讨蓝耘GPU平台在这方面的独特优势,力求帮助读者快速上手并走上创新之路。 一、通义万相2.1来临 前几日,通义官方发布了万相最新文生图模型2.1。 通义万相2.1在模型底层和交互体验上都有显著升级,具体来说: * 模型参数与语义理解升级 新版本参数规模已经突破千亿级别,使得对输入文本的语义捕捉更为精准,能更好地理解复杂描述,生成的图像在细节和质感上都有明显提升。与此同时,内置的智能改写功能可以自动优化用户输入,使得图像风格和表现更符合预期。 * 生成速度与细节表现的提升 得益于优化的算法和模型架构,生成速度大幅加快,尤其在高分辨率(最高支持200万像素)输出时,依然能保持流畅高效。同时,细节表现力增强后,无论是人物表情、光影效果还是场景布置,都能呈现得更加生动自