教你一步步在 服务器/本地(Linux/Windows) 部署鸣潮QQ机器人,并将其接入大语言模型,实现通过机器人进行库街区签到、练度查询、攻略查询等功能 (1)

准备工作

一台轻量级服务器/ 本地windows/linux能够在服务器/本地 科学上网

环境部署

笔者所演示的环境为阿里云服务器(2核CPU,2GIB内存,40GIB系统盘),操作系统为

Ubuntu 24.04.



确保已成功安装Python环境(版本须>3.8, 建议>=3.12,不建议>=3.13



确保已成功安装git
如果你没有安装git且的系统是ubuntu,安装git只需要输入

如果系统为Windows,则自行前往 🔗官网 下载安装包安装即可

创建虚拟环境

从 Python 3.11 开始,Debian 和 Ubuntu 默认启用了 "Externally-Managed-Environment"(外部管理环境)保护机制,防止用户直接使用 pip 安装包到系统 Python 环境中,以避免破坏系统依赖。因此我们选择创建一个虚拟环境,每次使用之前只需要启动环境即可。

Windows可直接运行pip install uv

如果直接安装uv可能会出现以下错误

安装虚拟环境包



(退出虚拟环境的命令:deactivate)

激活虚拟环境并安装uv

# 激活虚拟环境 source mcvenv/bin/activate # 在虚拟环境安装uv pip install uv

安装插件

安装GsCore

早柚核心文档http://​https://docs.sayu-bot.com/​

进入opt/mcbot,输入如下命令

git clone https://github.com/Genshin-bots/gsuid_core.git --depth=1 --single-branch cd gsuid_core

运行GsCore

uv run core

忽视警告

如在服务器上部署请按照说明修改config.json中的host为0.0.0.0,如在本地部署请忽略





Ctrl + x 退出并保存,回车确认

配置服务器端口8765

由于Gscore运行在8765端口,我们需要在服务器的防火墙处添加对应的规则

安装XutheringWavesUID鸣潮插件

进入插件目录,安装XWUID

cd gsuid_core/plugins # 安装XutheringWavesUID git clone https://github.com/Loping151/XutheringWavesUID.git

安装库街区签到插件

# 在plugins目录下安装库街区签到插件 git clone --depth=1 https://github.com/Loping151/RoverSign

重启早柚插件

可以看到刚刚安装的插件成功导入了

安装nonebot

另外创建一个会话窗口,进入mcbot目录,运行虚拟环境,安装nonebot

cd opt/mcbot # 激活虚拟环境 source mcvenv/bin/activate # 安装nb pip install nb-cli-plugin-bootstrap nb-clil

运行nb bs,将文件夹命名为onebot,空格选中,回车确定

配置图如下

进入onebot目录,连接早柚插件,可能需要科学上网

cd onebot nb plugin install nonebot-plugin-genshinuid

运行onebot

nb run

配置防火墙端口8080

Read more

Stable-Diffusion-3.5降本实战:FP8量化节省40%GPU成本案例

Stable-Diffusion-3.5降本实战:FP8量化节省40%GPU成本案例 1. 引言:当高质量图像生成遇上成本难题 如果你正在使用Stable Diffusion 3.5来创作图像,可能会遇到一个两难的选择:要么忍受缓慢的生成速度和爆满的显存,要么就得为更强大的GPU硬件支付高昂的费用。 Stable Diffusion 3.5确实带来了图像质量、语义理解和文字渲染能力的全面提升,但随之而来的是更大的模型体积和更高的计算需求。对于个人创作者、小型工作室甚至企业项目来说,GPU成本往往成为限制创意落地的最大瓶颈。 今天我要分享的,就是一个实实在在的降本增效方案——通过FP8量化技术,我们成功将SD 3.5的GPU显存占用降低了40%,同时保持了高质量的图像输出。这不是理论上的优化,而是经过实际验证的落地案例。 2. 什么是FP8量化?为什么它能大幅降低成本? 2.1 用大白话理解量化技术 想象一下,你有一张非常高清的照片,文件大小有10MB。现在你需要把这张照片发到社交媒体上,但平台限制文件不能超过1MB。你会怎么做? 大多数人会选择压缩图片——降低分辨率

FPGA模块如何助力现代工厂实现高速数据采集和实时处理

1. 工业 4.0 背景下的数据挑战 在智能制造的浪潮下,现代工厂正加速从“自动化”向“智能化”迈进。随着传感器部署密度的迅速上升,工厂内部产生的数据量呈几何级增长,涵盖结构化数据(如温度、湿度、压力)与非结构化数据(如图像、视频、音频)等多种类型,对数据采集与处理能力提出了前所未有的挑战: * 实时性要求高:在高速生产线、精密制造与运动控制等场景中,关键数据必须被及时采集与处理,以确保生产过程的高效运行与安全性。这不仅要求系统具备高速采集能力,更要求具备每秒处理百万乃至千万数据点的能力。 * 传输与处理带宽受限:庞大的原始数据若未经处理直接上传至数据中心或云端,将对网络带宽造成巨大负担,且传输延迟难以控制,极易影响系统响应速度和可靠性。 * 多协议兼容的复杂性:现代工厂常用的工业以太网、CAN、Profibus 等通信协议并存,系统需兼容上百种协议并实现无缝对接,大大增加了系统集成的复杂性。 2. FPGA 技术的核心优势 传统处理器架构逐渐难以胜任智能制造的核心需求。FPGA(现场可编程门阵列)凭借其强大的并行处理能力、毫秒级低延迟响应以及灵活可重构的架构,

AI能生成Vue组件,低代码能拖拽页面,前端工程师的核心价值到底剩什么?

AI能生成Vue组件,低代码能拖拽页面,前端工程师的核心价值到底剩什么?

深耕前端开发3年,从原生JS手写交互到Vue3+TypeScript工程化开发,从熬夜调试兼容性bug到优化首屏加载速度,我见证了前端行业的快速迭代。         但最近半年,身边的前端同仁们,焦虑感几乎达到了顶峰——打开VS Code,Copilot能实时补全80%的常规代码;拖拽低代码平台,产品经理都能自己完成简单的管理后台页面;甚至有公司裁员,理由是“低端前端工作可被AI+低代码完全替代”。         于是乎,行业里出现了两种极端声音:一种是“前端已死”,认为用不了几年,AI就能生成所有前端代码,低代码能覆盖大部分业务场景,前端工程师将被彻底淘汰;另一种是“小题大做”,觉得AI生成的代码全是冗余,低代码局限性极大,前端的核心价值无法被替代。         作为一名常年扎根业务一线的前端博主,今天不聊空洞的行业口号,不写AI式的套话堆砌,只从技术落地、业务场景、个人成长三个维度,结合我实际开发中踩过的坑、用过的工具,聊聊AI与低代码对前端的真实影响——观点可能有点犀利,甚至会戳中很多前端人的痛点,但我始终相信,只有正视冲击,才能找到破局之路。