教你一步步在 服务器/本地(Linux/Windows) 部署鸣潮QQ机器人,并将其接入大语言模型,实现通过机器人进行库街区签到、练度查询、攻略查询等功能 (1)

准备工作

一台轻量级服务器/ 本地windows/linux能够在服务器/本地 科学上网

环境部署

笔者所演示的环境为阿里云服务器(2核CPU,2GIB内存,40GIB系统盘),操作系统为

Ubuntu 24.04.



确保已成功安装Python环境(版本须>3.8, 建议>=3.12,不建议>=3.13



确保已成功安装git
如果你没有安装git且的系统是ubuntu,安装git只需要输入

如果系统为Windows,则自行前往 🔗官网 下载安装包安装即可

创建虚拟环境

从 Python 3.11 开始,Debian 和 Ubuntu 默认启用了 "Externally-Managed-Environment"(外部管理环境)保护机制,防止用户直接使用 pip 安装包到系统 Python 环境中,以避免破坏系统依赖。因此我们选择创建一个虚拟环境,每次使用之前只需要启动环境即可。

Windows可直接运行pip install uv

如果直接安装uv可能会出现以下错误

安装虚拟环境包



(退出虚拟环境的命令:deactivate)

激活虚拟环境并安装uv

# 激活虚拟环境 source mcvenv/bin/activate # 在虚拟环境安装uv pip install uv

安装插件

安装GsCore

早柚核心文档http://​https://docs.sayu-bot.com/​

进入opt/mcbot,输入如下命令

git clone https://github.com/Genshin-bots/gsuid_core.git --depth=1 --single-branch cd gsuid_core

运行GsCore

uv run core

忽视警告

如在服务器上部署请按照说明修改config.json中的host为0.0.0.0,如在本地部署请忽略





Ctrl + x 退出并保存,回车确认

配置服务器端口8765

由于Gscore运行在8765端口,我们需要在服务器的防火墙处添加对应的规则

安装XutheringWavesUID鸣潮插件

进入插件目录,安装XWUID

cd gsuid_core/plugins # 安装XutheringWavesUID git clone https://github.com/Loping151/XutheringWavesUID.git

安装库街区签到插件

# 在plugins目录下安装库街区签到插件 git clone --depth=1 https://github.com/Loping151/RoverSign

重启早柚插件

可以看到刚刚安装的插件成功导入了

安装nonebot

另外创建一个会话窗口,进入mcbot目录,运行虚拟环境,安装nonebot

cd opt/mcbot # 激活虚拟环境 source mcvenv/bin/activate # 安装nb pip install nb-cli-plugin-bootstrap nb-clil

运行nb bs,将文件夹命名为onebot,空格选中,回车确定

配置图如下

进入onebot目录,连接早柚插件,可能需要科学上网

cd onebot nb plugin install nonebot-plugin-genshinuid

运行onebot

nb run

配置防火墙端口8080

Read more

AI赋能智能终端PCB设计,核心是通过自动化布局布线、仿真加速、缺陷预测与制造协同

AI赋能智能终端PCB设计,核心是通过自动化布局布线、仿真加速、缺陷预测与制造协同

AI赋能智能终端PCB设计,核心是通过自动化布局布线、仿真加速、缺陷预测与制造协同,将传统“经验驱动”转为“数据决策”,显著缩短周期、提升性能与良率,适配高密度、高速、高可靠的终端需求。以下从核心场景、技术路径、实践案例、实施要点与趋势展开,形成可落地的创新实践指南。 一、核心应用场景与价值 应用环节核心痛点AI解决方案量化收益布局布线人工耗时久、串扰/阻抗难控强化学习+物理驱动AI自动规划,同步优化SI/PI/热/EMI12层板布线周期从3天缩至2小时,串扰降30%,阻抗偏差±3%内仿真验证传统EM仿真慢(小时级)神经网络替代部分计算,预仿真与实时校验仿真速度提升10–100倍,提前拦截70%以上信号/电源风险DFM/DFA量产缺陷多、返工率高学习历史数据,实时预警虚焊、铜箔撕裂、孔偏量产故障率降>30%,投板成功率提升至95%+电源/热设计纹波大、散热不均AI优化电源分配网络(

Z-Image Base最新整合包下载及使用教程+模型实测 Z-Image模型下载 Z-Image Base模型 Z-Image Turbo对比 AI生图模型整合包

Z-Image Base最新整合包下载及使用教程+模型实测 Z-Image模型下载 Z-Image Base模型 Z-Image Turbo对比 AI生图模型整合包

Z-Image Base最新整合包下载及使用教程+模型实测 Z-Image模型下载 Z-Image Base模型 Z-Image Turbo对比 AI生图模型整合包 👉 z image base整合包下载地址: https://pan.quark.cn/s/bc1fa5cf4374?pwd=e5KZ 今天我在折腾 Z-Image 新发布的 Base 模型。 说实话,一开始还是有点失望的—— 因为这次只放出了生图模型,没有编辑模型。 不过在真正跑完一轮测试之后,我发现: 👉 Base 模型虽然慢,但潜力非常大 👉 多样性直接拉满,终于又有“抽卡乐趣”了 所以干脆把 Turbo + Base 两个模型整合成一个完整包,下载解压就能用,顺手跑了多组对比测试,给大家做一次真实体验分享。 📦 Z-Image Base + Turbo整合包下载 (内置两个模型,直接可用)

本地Qwen + ComfyUI 制作AI漫剧完整保姆级教程(2026年3月最新版)

本地Qwen + ComfyUI 制作AI漫剧完整保姆级教程(2026年3月最新版)

这个组合是目前零成本、无限生成、角色一致性最强的本地方案! Qwen(本地大模型)负责写剧本 + 自动拆分镜 + 生成提示词;ComfyUI负责图像生成 + 角色一致性 + 动态视频。 适合新手/日更党,低配8GB显存就能跑(推荐12GB+更流畅)。全流程免费、无网络依赖、隐私安全。 模型+:工作流:https://pan.quark.cn/s/efc430e1996d 一、硬件要求(必看) * GPU:NVIDIA 8GB显存起步(RTX 3060 12GB最稳),AMD/Intel也可(需ROCm/OneAPI)。 * 内存:16GB+ RAM(32GB最佳)。 * 硬盘:SSD 50GB+ 空闲空间。 * 系统:Windows

【Unity-MCP完全指南:从零开始构建AI游戏开发助手】

【Unity-MCP完全指南:从零开始构建AI游戏开发助手】

标题 * Unity-MCP完全指南:从零开始构建AI游戏开发助手 * 前言 * 一、🤔 什么是Unity-MCP? * 1.1 MCP核心概念解析 * 1.2 为什么要用Unity-MCP? * 1.3 主流Unity-MCP工具对比 * 二、🔧 环境准备与安装 * 2.1 前提条件检查清单 * 2.2 安装Unity-MCP包(桥接组件) * 2.3 验证Python环境与uv安装 * 三、⚙️ Unity端配置详解 * 3.1 打开MCP配置面板 * 3.2 启动MCP服务器 * 3.3 验证服务器状态 * 四、🤖 AI客户端配置指南 * 4.1 Trae配置示例 * 4.1.1 添加MCP配置 * 4.1.2