教你一步步在 服务器/本地(Linux/Windows) 部署鸣潮QQ机器人,并将其接入大语言模型,实现通过机器人进行库街区签到、练度查询、攻略查询等功能 (1)

准备工作

一台轻量级服务器/ 本地windows/linux能够在服务器/本地 科学上网

环境部署

笔者所演示的环境为阿里云服务器(2核CPU,2GIB内存,40GIB系统盘),操作系统为

Ubuntu 24.04.



确保已成功安装Python环境(版本须>3.8, 建议>=3.12,不建议>=3.13



确保已成功安装git
如果你没有安装git且的系统是ubuntu,安装git只需要输入

如果系统为Windows,则自行前往 🔗官网 下载安装包安装即可

创建虚拟环境

从 Python 3.11 开始,Debian 和 Ubuntu 默认启用了 "Externally-Managed-Environment"(外部管理环境)保护机制,防止用户直接使用 pip 安装包到系统 Python 环境中,以避免破坏系统依赖。因此我们选择创建一个虚拟环境,每次使用之前只需要启动环境即可。

Windows可直接运行pip install uv

如果直接安装uv可能会出现以下错误

安装虚拟环境包



(退出虚拟环境的命令:deactivate)

激活虚拟环境并安装uv

# 激活虚拟环境 source mcvenv/bin/activate # 在虚拟环境安装uv pip install uv

安装插件

安装GsCore

早柚核心文档http://​https://docs.sayu-bot.com/​

进入opt/mcbot,输入如下命令

git clone https://github.com/Genshin-bots/gsuid_core.git --depth=1 --single-branch cd gsuid_core

运行GsCore

uv run core

忽视警告

如在服务器上部署请按照说明修改config.json中的host为0.0.0.0,如在本地部署请忽略





Ctrl + x 退出并保存,回车确认

配置服务器端口8765

由于Gscore运行在8765端口,我们需要在服务器的防火墙处添加对应的规则

安装XutheringWavesUID鸣潮插件

进入插件目录,安装XWUID

cd gsuid_core/plugins # 安装XutheringWavesUID git clone https://github.com/Loping151/XutheringWavesUID.git

安装库街区签到插件

# 在plugins目录下安装库街区签到插件 git clone --depth=1 https://github.com/Loping151/RoverSign

重启早柚插件

可以看到刚刚安装的插件成功导入了

安装nonebot

另外创建一个会话窗口,进入mcbot目录,运行虚拟环境,安装nonebot

cd opt/mcbot # 激活虚拟环境 source mcvenv/bin/activate # 安装nb pip install nb-cli-plugin-bootstrap nb-clil

运行nb bs,将文件夹命名为onebot,空格选中,回车确定

配置图如下

进入onebot目录,连接早柚插件,可能需要科学上网

cd onebot nb plugin install nonebot-plugin-genshinuid

运行onebot

nb run

配置防火墙端口8080

Read more

FPGA内部资源详解:LUT、FF、BRAM、DSP、PLL是什么?综合报告怎么看

FPGA内部资源详解:LUT、FF、BRAM、DSP、PLL是什么?综合报告怎么看

本文是《FPGA入门到实战》专栏第8篇。上一篇完成了第一个下板项目,本篇从芯片内部视角出发,深入讲解 FPGA 的五大核心硬件资源:LUT、FF、BRAM、DSP 和 PLL。理解这些资源的工作原理和使用限制,是写出高质量 FPGA 代码、读懂综合报告的基础。 FPGA内部资源详解:LUT、FF、BRAM、DSP、PLL是什么?综合报告怎么看 * 1. 为什么要了解内部资源 * 1.1 Artix-7 资源概览 * 2. LUT 查找表 * 2.1 LUT 是什么 * 2.2 LUT 实现任意 6 输入函数 * 2.3 LUT 的双输出模式(O5/

By Ne0inhk

RetinaFace+CurricularFace实战:基于预配置镜像的安防系统原型开发

RetinaFace+CurricularFace实战:基于预配置镜像的安防系统原型开发 你是否也遇到过这样的情况:公司要快速做一个人脸识别系统原型,客户下周就要看演示,但团队还在为环境配置、模型下载、依赖冲突焦头烂额?别急——今天我来带你用一个预配置好的AI镜像,5分钟内把RetinaFace + CurricularFace这套高精度人脸检测与识别组合跑起来,直接跳过繁琐搭建过程,专注在业务逻辑和效果调优上。 我们这次面对的是一家安防领域的初创公司。他们的核心诉求很明确:不做底层基建,只求快速验证产品可行性。他们需要的是一个能“看得清、认得准”的人脸系统原型,支持实时视频流输入、人脸定位、特征提取和身份比对功能。而我们要做的,就是借助ZEEKLOG星图平台提供的视觉AI专用镜像,一键部署、快速调试、高效展示。 这个方案的核心是两个明星级开源模型: - RetinaFace:负责精准地“找到人”,不仅能框出人脸位置,还能同时输出5个关键点(双眼、鼻尖、嘴角),为后续对齐打下基础。 - CurricularFace:负责“认出是谁”,它是目前公开领域中性能顶尖的人脸识别模型之一,

By Ne0inhk
Spatial Joy 2025 全球 AR&AI 赛事:开发者要的资源、玩法、避坑攻略都在这

Spatial Joy 2025 全球 AR&AI 赛事:开发者要的资源、玩法、避坑攻略都在这

Spatial Joy 2025 全球 AR&AI 赛事:开发者要的资源、玩法、避坑攻略都在这 * 引言: * 正文: * 一、赛事核心价值:资源、履历、落地全具备 * 1.1 硬核资源支持 * 1.2 行业背书与机遇 * 1.3 低门槛试错 * 二、赛道核心玩法:AI 和 AR 创作方向解析 * 2.1 AI 赛道:拼的是 "空间认知协作" 能力 * 2.1.1 应用示例 * 2.2 AR 赛道:

By Ne0inhk
LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案 前言:为什么选择 LazyLLM 构建多 Agent 大模型应用? LazyLLM 作为低代码构建多 Agent 大模型应用的开发工具,可大幅降低大模型应用的开发与部署门槛。本文聚焦其在豆包模型的落地实践,将从源码部署豆包文本模型的完整配置步骤入手,延伸至官方 WebModule 启动可视化 Web 界面的实操流程,并配套精准性、简洁度等多维度的部署测试说明,为开发者提供可直接对照的实操指南,助力高效完成豆包模型在 LazyLLM 框架下的部署与验证。 LazyLLM 整体架构解析:三层联动的多 Agent 运行体系 LazyLLM 的架构分为三层级递进结构,各层级分工明确且联动协同,实现从应用开发到落地执行的全流程覆盖:上层(LazyPlatform AI 大模型应用开发平台):核心含应用编排平台以可视化编排、发布、回流、调优的闭环完成应用构建迭代与平台管理模块通过租户、权限管理支撑多用户运维,是开发者的高效开发管理入口中层(

By Ne0inhk