共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站

共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站
还在为本地硬件不足跑不动 AI 绘图模型发愁?想快速拥有高性价比的 Stable Diffusion 绘图环境?今天给大家带来共绩算力 RTX 5090 部署 Stable Diffusion WebUI(增强版)的详细教程,全程零兼容冲突,从云主机配置到生成第一张 AI 画作仅需 30 分钟,步骤清晰可复现,无论是设计爱好者还是 AI 新手都能轻松上手!

目录

一、为什么选择共绩算力部署 Stable Diffusion?

二、环境准备:精准配置云主机

2.1 创建云主机实例

1.2 登录云主机终端

二、完整部署流程

2.1 环境清理与依赖安装

2.2 下载与配置Stable Diffusion WebUI

2.3 配置启动脚本

2.4 首次启动与配置

三、本地访问与基础使用

3.1 浏览器访问WebUI

3.2 生成第一张AI图片

3.3 常用功能体验

四、进阶优化与插件安装

4.1 安装实用插件

4.2 性能优化配置

4.3 模型管理技巧

五、故障排查与维护

5.1 常见问题解决

5.2 日常维护命令

六、总结与资源推荐

6.1 部署成果总结

6.2 进阶学习资源

6.3 成本优化建议


一、为什么选择共绩算力部署 Stable Diffusion?

共绩科技的云主机专为 AI 开发场景优化,对 Stable Diffusion 这类图形密集型任务适配性拉满,核心优势直击痛点:

丰富高端 GPU 可选:RTX 5090(32GB 显存)完美支撑大模型 + 高清绘图,避免显存不足(OOM)问题开箱即用的开发环境:预装 Python 3.10+、CUDA 12.8 及适配驱动,无需手动配置深度学习框架弹性计费更省钱:1.68 元 / 时起步,关机零费用,仅按实际使用时长计费,比本地装机成本低 90%完整工具链支持:自带 Jupyter、Web Shell 等终端,无需 SSH 配置,浏览器即可完成所有操作国内网络加速:访问 PyPI 镜像、模型仓库无卡顿,下载大模型速度比海外云平台快 3 倍

二、环境准备:精准配置云主机

2.1 创建云主机实例

1. 访问共绩算力平台

2. 创建云主机配置详解

  • 进入控制台 → 云主机 → 创建实例
  • 基础配置
    • 实例名称:SD-WebUI-RTX5090(便于识别)
    • 算力规格:RTX 5090(32GB显存) ← 关键选择!
    • 系统镜像:默认Linux镜像(已预装Python 3.10+、CUDA 12.8)
  • 存储配置
    • 系统盘:50GB(默认足够)
    • 数据盘:如需要存储大量模型,可添加共享存储卷(按需付费)
  • 网络与安全
    • 区域选择:安徽一区广东一区(国内网络更稳定)
    • 安全组:默认开放全部端口(方便后续访问)

3. 确认创建与启动

  1. 点击"立即创建",等待2-3分钟实例状态变为"运行中"
  2. 成本提示:RTX 5090实例约2.5元/小时,关机期间不收费!

1.2 登录云主机终端

1. Web Shell登录(推荐新手)

  • 实例列表点击"登录" → 选择"Web Shell"
  • 浏览器内直接打开终端界面,无需SSH配置

2. 验证基础环境在终端中执行以下命令,检查预装环境:

# 检查Python版本 python3 --version # 检查CUDA版本 nvcc --version # 检查GPU状态 nvidia-smi

3. 正常输出应显示Python 3.10+、CUDA 12.8、RTX 5090显卡信息。


二、完整部署流程

2.1 环境清理与依赖安装

步骤1:彻底清理冲突环境

# 卸载可能冲突的包(避免版本不兼容) pip3 uninstall -y torch torchvision torchaudio xformers diffusers transformers # 彻底清理残留文件 rm -rf /root/.cache/pip rm -rf /opt/miniconda3/lib/python3.12/site-packages/{torch*,xformers*,diffusers*,transformers*} # 更新pip并清理缓存 pip3 install --upgrade pip pip3 cache purge

步骤2:安装PyTorch与基础依赖

# 安装适配RTX 5090的PyTorch(CUDA 12.8版本) pip3 install torch==2.7.1 torchvision==0.22.1 torchaudio==2.7.1 \ --index-url https://download.pytorch.org/whl/cu128 \ -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装图像处理基础库 pip3 install numpy==1.26.4 pillow==10.3.0 opencv-python==4.9.0.80 \ -i https://pypi.tuna.tsinghua.edu.cn/simple

步骤3:安装Stable Diffusion核心依赖

# 安装HuggingFace相关库 pip3 install transformers accelerate diffusers \ -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装Web界面框架 pip3 install gradio==3.41.2 fastapi==0.104.1 uvicorn==0.24.0 \ -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装性能优化插件 pip3 install xformers -i https://pypi.tuna.tsinghua.edu.cn/simple

2.2 下载与配置Stable Diffusion WebUI

步骤1:克隆最新版WebUI源码

# 安装git(如果未预装) apt update && apt install -y git wget # 克隆AUTOMATIC1111的WebUI(功能最全的版本) git clone https://gitee.com/mirrors/stable-diffusion-webui.git /root/sd-webui # 进入工作目录 cd /root/sd-webui

步骤2:创建模型目录结构

# 创建必要的模型目录 mkdir -p /root/sd-webui/models/Stable-diffusion # 基础模型 mkdir -p /root/sd-webui/models/Lora # LoRA模型 mkdir -p /root/sd-webui/models/VAE # VAE模型 mkdir -p /root/sd-webui/models/ControlNet # ControlNet模型 mkdir -p /root/sd-webui/outputs # 输出目录

步骤3:下载基础模型(国内镜像加速)

# 使用 Hugging Face 国内镜像 wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors \ https://hf-mirror.com/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors # 或者使用阿里云镜像 wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors \ https://mirror.ghproxy.com/https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors # 下载SDXL精炼模型(优化细节) wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_refiner_1.0.safetensors \ https://hf-mirror.com/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors # 下载中文优化模型(可选,提升中文提示词理解) wget -O /root/sd-webui/models/Stable-diffusion/chilloutmix_NiPrunedFp32Fix.safetensors \ https://hf-mirror.com/ckpt/chilloutmix/resolve/main/chilloutmix_NiPrunedFp32Fix.safetensors

2.3 配置启动脚本

创建一键启动脚本start_sd.sh

cat > /root/sd-webui/start_sd.sh << 'EOF' #!/bin/bash # 进入WebUI目录 cd /root/sd-webui # 设置环境变量 export PYTHONPATH="/root/sd-webui:$PYTHONPATH" export HF_HOME="/root/.cache/huggingface" # 启动参数说明: # --listen:允许外部访问 # --port 7860:指定端口 # --xformers:启用显存优化 # --enable-insecure-extension-access:允许安装插件 # --medvram:中等显存优化模式(适合RTX 5090) # --no-half-vae:避免VAE精度问题 python3 launch.py \ --listen \ --port 7860 \ --xformers \ --enable-insecure-extension-access \ --medvram \ --no-half-vae \ --skip-torch-cuda-test \ --skip-version-check \ --update-check EOF # 赋予执行权限 chmod +x /root/sd-webui/start_sd.sh

2.4 首次启动与配置

步骤1:首次启动WebUI

cd /root/sd-webui ./start_sd.sh

报错解决:

# Deactivate current environments conda deactivate conda deactivate # Create a new environment with Python 3.10.6 conda create -n sd-webui python=3.10.6 # Activate the new environment conda activate sd-webui # Navigate to your project and run the script cd /root/sd-webui ./start_sd.sh

首次启动会自动:

  • 下载CLIP模型和VAE模型(约5-10分钟)
  • 编译xformers优化器
  • 初始化Web界面

等待终端显示以下信息即启动成功:

Running on local URL: http://0.0.0.0:7860 To create a public link, set `share=True` in `launch()`.

步骤2:后台运行配置(重要)

为避免断开SSH后服务停止,配置后台运行:

# 创建后台启动脚本 cat > /root/sd-webui/start_sd_background.sh << 'EOF' #!/bin/bash cd /root/sd-webui nohup python3 launch.py \ --listen \ --port 7860 \ --xformers \ --enable-insecure-extension-access \ --medvram \ --no-half-vae \ > /root/sd-webui/webui.log 2>&1 & echo "WebUI已启动,日志文件:/root/sd-webui/webui.log" echo "查看日志:tail -f /root/sd-webui/webui.log" echo "停止服务:pkill -f launch.py" EOF chmod +x /root/sd-webui/start_sd_background.sh # 启动后台服务 ./start_sd_background.sh

三、本地访问与基础使用

3.1 浏览器访问WebUI

1. 获取公网IP

  • 共绩控制台 → 云主机 → 实例详情 → 复制"公网IP"

2. 浏览器访问

  • 本地浏览器打开:http://你的公网IP:7860
  • 首次加载约30秒,出现Stable Diffusion WebUI界面

3.2 生成第一张AI图片

1. 模型选择

左上角选择:sd_xl_base_1.0.safetensors

2. 提示词填写

# 正向提示词(英文效果更好) masterpiece, best quality, 8k resolution, cyberpunk cityscape at night, neon lights, futuristic buildings, rain-wet streets, cinematic lighting, detailed reflections # 反向提示词(避免不良效果) low quality, worst quality, bad anatomy, blurry, jpeg artifacts, watermark, text

3. 参数设置

  • 采样方法:DPM++ 2M Karras
  • 采样步数:25
  • 图片宽度:1024
  • 图片高度:768
  • 提示词引导系数:7.5
  • 随机种子:-1(随机)

4. 生成图片

  • 点击"生成"按钮
  • RTX 5090约15秒完成生成
  • 右键图片可保存到本地

3.3 常用功能体验

图生图功能:上传本地图片 → 调整重绘强度(0.5-0.7)→ 添加风格提示词

图片放大:生成后点击"Extras" → 选择放大算法(ESRGAN)→ 调整倍数

模型管理:设置 → Model Settings → 添加模型下载路径


四、进阶优化与插件安装

4.1 安装实用插件

通过WebUI安装(推荐):

  1. 进入"Extensions"标签页
  2. 点击"Available" → "Load from URL"
  3. 输入插件GitHub地址:
    1. 中文翻译:https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN
    2. 提示词自动补全:https://github.com/DominikDoom/a1111-sd-webui-tagcomplete
    3. 模型预览图:https://github.com/AlUlkesh/stable-diffusion-webui-images-browser

命令行安装:

cd /root/sd-webui/extensions git clone https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN git clone https://github.com/DominikDoom/a1111-sd-webui-tagcomplete

4.2 性能优化配置

修改启动参数webui-user.sh

# 编辑用户配置 nano /root/sd-webui/webui-user.sh # 添加以下优化参数 export COMMANDLINE_ARGS="--listen --xformers --opt-split-attention --no-half-vae --medvram" export TORCH_COMMAND="pip3 install torch==2.7.1 torchvision==0.22.1"

4.3 模型管理技巧

批量下载模型:

# 编辑用户配置 nano /root/sd-webui/webui-user.sh # 添加以下优化参数 export COMMANDLINE_ARGS="--listen --xformers --opt-split-attention --no-half-vae --medvram" export TORCH_COMMAND="pip3 install torch==2.7.1 torchvision==0.22.1"

五、故障排查与维护

5.1 常见问题解决

问题1:浏览器无法访问

# 检查服务状态 ps aux | grep python | grep launch # 检查端口占用 netstat -tlnp | grep 7860 # 重启服务 pkill -f launch.py cd /root/sd-webui && ./start_sd_background.sh

问题2:显存不足(OOM)

  • 解决方案:减少图片尺寸(1024×1024以内)
  • 启用--medvram--lowvram参数
  • 关闭其他占用显存的进程

问题3:模型加载失败

# 重新下载模型 rm -f /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors [模型链接]

5.2 日常维护命令

查看服务状态:

# 查看运行日志 tail -f /root/sd-webui/webui.log # 查看GPU使用情况 watch -n 1 nvidia-smi # 检查存储空间 df -h /root

备份重要数据:

# 备份模型配置 tar -czf sd_backup_$(date +%Y%m%d).tar.gz /root/sd-webui/models/ /root/sd-webui/outputs/

六、总结与资源推荐

6.1 部署成果总结

通过本教程,你已经成功在共绩算力RTX 5090上部署了:

  • ✅ 完整的Stable Diffusion WebUI环境
  • ✅ SDXL 1.0等高质量基础模型
  • ✅ 中文化界面和实用插件
  • ✅ 优化后的启动参数和后台运行
  • ✅ 可远程访问的专业级AI绘图工作站

6.2 进阶学习资源

提示词技巧:

  • 学习网站:Lexica.art、OpenArt.ai
  • 关键词组合:质量词+主体+风格+细节

模型推荐:

  • 写实风格:Realistic Vision、ChilloutMix
  • 动漫风格:Anything V5、Counterfeit
  • 特殊风格:Arcane、MoDi

参数优化:

  • 采样器:DPM++ 2M Karras(平衡速度质量)
  • 步数:20-30步(效果与速度平衡)
  • CFG Scale:7-9(创意与服从度平衡)

6.3 成本优化建议

  1. 及时关机:不用时在控制台关机,仅按实际使用时间计费
  2. 使用快照:配置好环境后创建系统快照,便于快速恢复
  3. 模型管理:只下载常用模型,避免存储空间浪费

Read more

前端Base64格式文件上传详解:原理、实现与最佳实践

前端Base64格式文件上传详解:原理、实现与最佳实践

🌷 古之立大事者,不惟有超世之才,亦必有坚忍不拔之志 🎐 个人CSND主页——Micro麦可乐的博客 🐥《Docker实操教程》专栏以最新的Centos版本为基础进行Docker实操教程,入门到实战 🌺《RabbitMQ》专栏19年编写主要介绍使用JAVA开发RabbitMQ的系列教程,从基础知识到项目实战 🌸《设计模式》专栏以实际的生活场景为案例进行讲解,让大家对设计模式有一个更清晰的理解 🌛《开源项目》本专栏主要介绍目前热门的开源项目,带大家快速了解并轻松上手使用 🍎 《前端技术》专栏以实战为主介绍日常开发中前端应用的一些功能以及技巧,均附有完整的代码示例 ✨《开发技巧》本专栏包含了各种系统的设计原理以及注意事项,并分享一些日常开发的功能小技巧 💕《Jenkins实战》专栏主要介绍Jenkins+Docker的实战教程,让你快速掌握项目CI/CD,是2024年最新的实战教程 🌞《Spring Boot》专栏主要介绍我们日常工作项目中经常应用到的功能以及技巧,代码样例完整 👍《Spring Security》专栏中我们将逐步深入Spring Security的各个

By Ne0inhk
《Web 自动化测试入门:从概念到百度搜索实战全拆解》

《Web 自动化测试入门:从概念到百度搜索实战全拆解》

一、自动化的核心概念 1. 定义:通过自动方式替代人工操作完成任务,生活中常见案例(自动洒水机、自动洗手液、超市闸机)体现了 “减少人力消耗、提升效率 / 质量” 的特点。 2. 软件自动化测试的核心目的: * 用于回归测试:软件迭代新版本时,验证新增功能是否影响历史功能的正常运行。 3. 常见面试题解析: * 自动化测试不能完全取代人工测试:需人工编写脚本,且功能变更后需维护更新,可靠性未必优于人工。 * 自动化测试不能 “大幅度降低工作量”:仅能 “一定程度” 减少重复工作,需注意表述的严谨性。 二、自动化测试的分类 自动化是统称,包含多种类型,核心分类及说明如下: 分类说明接口自动化针对软件接口的测试,目的是验证接口的功能、性能、稳定性等。UI 自动化 针对软件界面的测试,包含: 1. 移动端自动化:通过模拟器在电脑上编写脚本,测试手机应用;稳定性较差(受设备、

By Ne0inhk

用playwright封装一个处理web网页的爬虫,并隐藏自动化特征,自动处理反爬

更多内容请见: 《爬虫和逆向教程》 - 专栏介绍和目录 文章目录 * 一、脚本概述 * 1.1 脚本对应反爬措施 * 1.2 注意事项 * 1.3 反爬细节说明 * 二、完整代码 * 2.1 安装依赖 * 2.2 封装代码 * 2.3 使用示例 下面是一个使用 Playwright 封装的、具备反爬对抗能力的网页爬虫Python函数,返回原始 HTML 内容,并重点隐藏自动化特征,避免被检测为 bot。 一、脚本概述 该封装已在多个中等反爬网站(如电商、新闻站)验证有效,能绕过大多数基于 navigator.webdriver、chrome 对象、permissions 等的检测。

By Ne0inhk
Flutter for OpenHarmony: Flutter 三方库 flutter_cors 应对鸿蒙 Web 与混合开发中的跨域挑战(网络兼容方案)

Flutter for OpenHarmony: Flutter 三方库 flutter_cors 应对鸿蒙 Web 与混合开发中的跨域挑战(网络兼容方案)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 在进行 OpenHarmony 的跨平台开发时,我们不仅开发原生 HAP,有时也会涉及 Flutter Web 或是在鸿蒙端侧运行 Webview 混合应用。这时,一个经典的“拦路虎”就会出现:CORS (跨源资源共享) 限制。当你的 Web 端尝试访问一个未配置跨域头部的后端 API 时,请求会被浏览器拦截,报错信息极其晦涩。 虽然 CORS 主要是后端的工作,但 flutter_cors 提供了一种客户端视角的辅助工具。它通过工具化手段帮助开发者分析、绕过或生成跨域适配规则,是保证鸿蒙跨平台 Web 项目顺利运行的调试利器。 一、跨域访问逻辑模型 CORS 是一种浏览器的安全保护机制,它在请求发出前先进行“预检(Preflight)

By Ne0inhk