共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站

共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站
还在为本地硬件不足跑不动 AI 绘图模型发愁?想快速拥有高性价比的 Stable Diffusion 绘图环境?今天给大家带来共绩算力 RTX 5090 部署 Stable Diffusion WebUI(增强版)的详细教程,全程零兼容冲突,从云主机配置到生成第一张 AI 画作仅需 30 分钟,步骤清晰可复现,无论是设计爱好者还是 AI 新手都能轻松上手!

目录

一、为什么选择共绩算力部署 Stable Diffusion?

二、环境准备:精准配置云主机

2.1 创建云主机实例

1.2 登录云主机终端

二、完整部署流程

2.1 环境清理与依赖安装

2.2 下载与配置Stable Diffusion WebUI

2.3 配置启动脚本

2.4 首次启动与配置

三、本地访问与基础使用

3.1 浏览器访问WebUI

3.2 生成第一张AI图片

3.3 常用功能体验

四、进阶优化与插件安装

4.1 安装实用插件

4.2 性能优化配置

4.3 模型管理技巧

五、故障排查与维护

5.1 常见问题解决

5.2 日常维护命令

六、总结与资源推荐

6.1 部署成果总结

6.2 进阶学习资源

6.3 成本优化建议


一、为什么选择共绩算力部署 Stable Diffusion?

共绩科技的云主机专为 AI 开发场景优化,对 Stable Diffusion 这类图形密集型任务适配性拉满,核心优势直击痛点:

丰富高端 GPU 可选:RTX 5090(32GB 显存)完美支撑大模型 + 高清绘图,避免显存不足(OOM)问题开箱即用的开发环境:预装 Python 3.10+、CUDA 12.8 及适配驱动,无需手动配置深度学习框架弹性计费更省钱:1.68 元 / 时起步,关机零费用,仅按实际使用时长计费,比本地装机成本低 90%完整工具链支持:自带 Jupyter、Web Shell 等终端,无需 SSH 配置,浏览器即可完成所有操作国内网络加速:访问 PyPI 镜像、模型仓库无卡顿,下载大模型速度比海外云平台快 3 倍

二、环境准备:精准配置云主机

2.1 创建云主机实例

1. 访问共绩算力平台

2. 创建云主机配置详解

  • 进入控制台 → 云主机 → 创建实例
  • 基础配置
    • 实例名称:SD-WebUI-RTX5090(便于识别)
    • 算力规格:RTX 5090(32GB显存) ← 关键选择!
    • 系统镜像:默认Linux镜像(已预装Python 3.10+、CUDA 12.8)
  • 存储配置
    • 系统盘:50GB(默认足够)
    • 数据盘:如需要存储大量模型,可添加共享存储卷(按需付费)
  • 网络与安全
    • 区域选择:安徽一区广东一区(国内网络更稳定)
    • 安全组:默认开放全部端口(方便后续访问)

3. 确认创建与启动

  1. 点击"立即创建",等待2-3分钟实例状态变为"运行中"
  2. 成本提示:RTX 5090实例约2.5元/小时,关机期间不收费!

1.2 登录云主机终端

1. Web Shell登录(推荐新手)

  • 实例列表点击"登录" → 选择"Web Shell"
  • 浏览器内直接打开终端界面,无需SSH配置

2. 验证基础环境在终端中执行以下命令,检查预装环境:

# 检查Python版本 python3 --version # 检查CUDA版本 nvcc --version # 检查GPU状态 nvidia-smi

3. 正常输出应显示Python 3.10+、CUDA 12.8、RTX 5090显卡信息。


二、完整部署流程

2.1 环境清理与依赖安装

步骤1:彻底清理冲突环境

# 卸载可能冲突的包(避免版本不兼容) pip3 uninstall -y torch torchvision torchaudio xformers diffusers transformers # 彻底清理残留文件 rm -rf /root/.cache/pip rm -rf /opt/miniconda3/lib/python3.12/site-packages/{torch*,xformers*,diffusers*,transformers*} # 更新pip并清理缓存 pip3 install --upgrade pip pip3 cache purge

步骤2:安装PyTorch与基础依赖

# 安装适配RTX 5090的PyTorch(CUDA 12.8版本) pip3 install torch==2.7.1 torchvision==0.22.1 torchaudio==2.7.1 \ --index-url https://download.pytorch.org/whl/cu128 \ -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装图像处理基础库 pip3 install numpy==1.26.4 pillow==10.3.0 opencv-python==4.9.0.80 \ -i https://pypi.tuna.tsinghua.edu.cn/simple

步骤3:安装Stable Diffusion核心依赖

# 安装HuggingFace相关库 pip3 install transformers accelerate diffusers \ -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装Web界面框架 pip3 install gradio==3.41.2 fastapi==0.104.1 uvicorn==0.24.0 \ -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装性能优化插件 pip3 install xformers -i https://pypi.tuna.tsinghua.edu.cn/simple

2.2 下载与配置Stable Diffusion WebUI

步骤1:克隆最新版WebUI源码

# 安装git(如果未预装) apt update && apt install -y git wget # 克隆AUTOMATIC1111的WebUI(功能最全的版本) git clone https://gitee.com/mirrors/stable-diffusion-webui.git /root/sd-webui # 进入工作目录 cd /root/sd-webui

步骤2:创建模型目录结构

# 创建必要的模型目录 mkdir -p /root/sd-webui/models/Stable-diffusion # 基础模型 mkdir -p /root/sd-webui/models/Lora # LoRA模型 mkdir -p /root/sd-webui/models/VAE # VAE模型 mkdir -p /root/sd-webui/models/ControlNet # ControlNet模型 mkdir -p /root/sd-webui/outputs # 输出目录

步骤3:下载基础模型(国内镜像加速)

# 使用 Hugging Face 国内镜像 wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors \ https://hf-mirror.com/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors # 或者使用阿里云镜像 wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors \ https://mirror.ghproxy.com/https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors # 下载SDXL精炼模型(优化细节) wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_refiner_1.0.safetensors \ https://hf-mirror.com/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors # 下载中文优化模型(可选,提升中文提示词理解) wget -O /root/sd-webui/models/Stable-diffusion/chilloutmix_NiPrunedFp32Fix.safetensors \ https://hf-mirror.com/ckpt/chilloutmix/resolve/main/chilloutmix_NiPrunedFp32Fix.safetensors

2.3 配置启动脚本

创建一键启动脚本start_sd.sh

cat > /root/sd-webui/start_sd.sh << 'EOF' #!/bin/bash # 进入WebUI目录 cd /root/sd-webui # 设置环境变量 export PYTHONPATH="/root/sd-webui:$PYTHONPATH" export HF_HOME="/root/.cache/huggingface" # 启动参数说明: # --listen:允许外部访问 # --port 7860:指定端口 # --xformers:启用显存优化 # --enable-insecure-extension-access:允许安装插件 # --medvram:中等显存优化模式(适合RTX 5090) # --no-half-vae:避免VAE精度问题 python3 launch.py \ --listen \ --port 7860 \ --xformers \ --enable-insecure-extension-access \ --medvram \ --no-half-vae \ --skip-torch-cuda-test \ --skip-version-check \ --update-check EOF # 赋予执行权限 chmod +x /root/sd-webui/start_sd.sh

2.4 首次启动与配置

步骤1:首次启动WebUI

cd /root/sd-webui ./start_sd.sh

报错解决:

# Deactivate current environments conda deactivate conda deactivate # Create a new environment with Python 3.10.6 conda create -n sd-webui python=3.10.6 # Activate the new environment conda activate sd-webui # Navigate to your project and run the script cd /root/sd-webui ./start_sd.sh

首次启动会自动:

  • 下载CLIP模型和VAE模型(约5-10分钟)
  • 编译xformers优化器
  • 初始化Web界面

等待终端显示以下信息即启动成功:

Running on local URL: http://0.0.0.0:7860 To create a public link, set `share=True` in `launch()`.

步骤2:后台运行配置(重要)

为避免断开SSH后服务停止,配置后台运行:

# 创建后台启动脚本 cat > /root/sd-webui/start_sd_background.sh << 'EOF' #!/bin/bash cd /root/sd-webui nohup python3 launch.py \ --listen \ --port 7860 \ --xformers \ --enable-insecure-extension-access \ --medvram \ --no-half-vae \ > /root/sd-webui/webui.log 2>&1 & echo "WebUI已启动,日志文件:/root/sd-webui/webui.log" echo "查看日志:tail -f /root/sd-webui/webui.log" echo "停止服务:pkill -f launch.py" EOF chmod +x /root/sd-webui/start_sd_background.sh # 启动后台服务 ./start_sd_background.sh

三、本地访问与基础使用

3.1 浏览器访问WebUI

1. 获取公网IP

  • 共绩控制台 → 云主机 → 实例详情 → 复制"公网IP"

2. 浏览器访问

  • 本地浏览器打开:http://你的公网IP:7860
  • 首次加载约30秒,出现Stable Diffusion WebUI界面

3.2 生成第一张AI图片

1. 模型选择

左上角选择:sd_xl_base_1.0.safetensors

2. 提示词填写

# 正向提示词(英文效果更好) masterpiece, best quality, 8k resolution, cyberpunk cityscape at night, neon lights, futuristic buildings, rain-wet streets, cinematic lighting, detailed reflections # 反向提示词(避免不良效果) low quality, worst quality, bad anatomy, blurry, jpeg artifacts, watermark, text

3. 参数设置

  • 采样方法:DPM++ 2M Karras
  • 采样步数:25
  • 图片宽度:1024
  • 图片高度:768
  • 提示词引导系数:7.5
  • 随机种子:-1(随机)

4. 生成图片

  • 点击"生成"按钮
  • RTX 5090约15秒完成生成
  • 右键图片可保存到本地

3.3 常用功能体验

图生图功能:上传本地图片 → 调整重绘强度(0.5-0.7)→ 添加风格提示词

图片放大:生成后点击"Extras" → 选择放大算法(ESRGAN)→ 调整倍数

模型管理:设置 → Model Settings → 添加模型下载路径


四、进阶优化与插件安装

4.1 安装实用插件

通过WebUI安装(推荐):

  1. 进入"Extensions"标签页
  2. 点击"Available" → "Load from URL"
  3. 输入插件GitHub地址:
    1. 中文翻译:https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN
    2. 提示词自动补全:https://github.com/DominikDoom/a1111-sd-webui-tagcomplete
    3. 模型预览图:https://github.com/AlUlkesh/stable-diffusion-webui-images-browser

命令行安装:

cd /root/sd-webui/extensions git clone https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN git clone https://github.com/DominikDoom/a1111-sd-webui-tagcomplete

4.2 性能优化配置

修改启动参数webui-user.sh

# 编辑用户配置 nano /root/sd-webui/webui-user.sh # 添加以下优化参数 export COMMANDLINE_ARGS="--listen --xformers --opt-split-attention --no-half-vae --medvram" export TORCH_COMMAND="pip3 install torch==2.7.1 torchvision==0.22.1"

4.3 模型管理技巧

批量下载模型:

# 编辑用户配置 nano /root/sd-webui/webui-user.sh # 添加以下优化参数 export COMMANDLINE_ARGS="--listen --xformers --opt-split-attention --no-half-vae --medvram" export TORCH_COMMAND="pip3 install torch==2.7.1 torchvision==0.22.1"

五、故障排查与维护

5.1 常见问题解决

问题1:浏览器无法访问

# 检查服务状态 ps aux | grep python | grep launch # 检查端口占用 netstat -tlnp | grep 7860 # 重启服务 pkill -f launch.py cd /root/sd-webui && ./start_sd_background.sh

问题2:显存不足(OOM)

  • 解决方案:减少图片尺寸(1024×1024以内)
  • 启用--medvram--lowvram参数
  • 关闭其他占用显存的进程

问题3:模型加载失败

# 重新下载模型 rm -f /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors [模型链接]

5.2 日常维护命令

查看服务状态:

# 查看运行日志 tail -f /root/sd-webui/webui.log # 查看GPU使用情况 watch -n 1 nvidia-smi # 检查存储空间 df -h /root

备份重要数据:

# 备份模型配置 tar -czf sd_backup_$(date +%Y%m%d).tar.gz /root/sd-webui/models/ /root/sd-webui/outputs/

六、总结与资源推荐

6.1 部署成果总结

通过本教程,你已经成功在共绩算力RTX 5090上部署了:

  • ✅ 完整的Stable Diffusion WebUI环境
  • ✅ SDXL 1.0等高质量基础模型
  • ✅ 中文化界面和实用插件
  • ✅ 优化后的启动参数和后台运行
  • ✅ 可远程访问的专业级AI绘图工作站

6.2 进阶学习资源

提示词技巧:

  • 学习网站:Lexica.art、OpenArt.ai
  • 关键词组合:质量词+主体+风格+细节

模型推荐:

  • 写实风格:Realistic Vision、ChilloutMix
  • 动漫风格:Anything V5、Counterfeit
  • 特殊风格:Arcane、MoDi

参数优化:

  • 采样器:DPM++ 2M Karras(平衡速度质量)
  • 步数:20-30步(效果与速度平衡)
  • CFG Scale:7-9(创意与服从度平衡)

6.3 成本优化建议

  1. 及时关机:不用时在控制台关机,仅按实际使用时间计费
  2. 使用快照:配置好环境后创建系统快照,便于快速恢复
  3. 模型管理:只下载常用模型,避免存储空间浪费

Read more

scorecardpy信用评分卡:从零到精通的Python开发指南

在当今数字化金融时代,scorecardpy信用评分卡已成为风控领域的重要工具。作为Python生态中专为信用风险评估设计的专业库,它让传统复杂的评分卡开发变得简单高效。无论你是金融从业者还是数据分析新手,都能通过本指南快速掌握这一强大工具。 【免费下载链接】scorecardpyScorecard Development in python, 评分卡 项目地址: https://gitcode.com/gh_mirrors/sc/scorecardpy 🚀 一键安装与高效配置技巧 环境准备与快速部署 scorecardpy支持多种安装方式,满足不同用户需求: 基础安装方法 pip install scorecardpy 最新版本获取 如需体验最新功能,可通过以下命令安装开发版本: pip install git+https://gitcode.com/gh_mirrors/sc/scorecardpy 核心依赖与环境检查 安装完成后,建议验证环境配置: import scorecardpy as sc print(f&

【花雕动手做】拆解CASIC MOTOR机器人底盘14.8V无刷减速电机

【花雕动手做】拆解CASIC MOTOR机器人底盘14.8V无刷减速电机

为了做个机器人底盘,配合铝合金麦克纳姆轮使用,收了一款14.8V的无刷减速电机。这里试试简单的拆解,了解相关情况。 一、电机型号与基本信息 型号:CASIC MOTOR ZWS37U-CS-001 品牌:CASIC MOTOR(深圳航天电机系统有限公司) 类型:带行星减速箱的无刷直流电机(BLDC),内置编码器(多色线为编码器信号线) 二、核心参数(铭牌标注) 三、主要特色 无刷设计:无电刷磨损,寿命长、噪音低、效率高,适合长时间连续运行。 集成减速箱:行星减速结构,大幅提升输出扭矩,同时保持电机本体的高转速特性。 内置编码器:多色线(黄 / 红 / 黑 / 蓝 / 绿 / 白)为霍尔或增量编码器信号线,支持精准速度与位置控制。 高扭矩密度:在 37mm 直径的紧凑体积下,

西门子大型程序及Fanuc机器人焊装系统集成 - 包含多项Profinet通讯与智能模块

西门子大型程序及Fanuc机器人焊装系统集成 - 包含多项Profinet通讯与智能模块

西门子大型程序fanuc机器人焊装 包括1台 西门子1500PLC程序,2台触摸屏TP1500程序,9个智能远程终端ET200SP Profinet连接 15个Festo智能模块Profinet通讯 10台Fanuc发那科机器人Profinet通讯 3台G120变频器Profinet通讯 2台智能电能管理仪表PAC3200 4个GRAPH顺控程序 图尔克RFID总线模组通讯 和MES系统通讯,西门子安全模块 内含GSD文件,可供其他项目使用 程序经典,结构清晰,SCL算法,堆栈,梯形图,结构化编程,想学习项目累计经验时间可以借鉴思路博途v15.1以上可以打开。 最近在搞一个挺有意思的项目,用西门子1500PLC搭了个Fanuc机器人焊装产线。这系统里光Profinet设备就三十多个,从ET200SP到发那科机器人,再带G120变频器,活脱脱一个工业通讯大杂烩。但别被设备数量吓到,程序结构可是清清爽爽,就像老司机整理的衣柜——该挂的挂,该叠的叠。 先说这程序里的SCL算法,比老式梯形图利索多了。举个栗子,处理机器人故障信号时用了堆栈结构: VAR_TEMP AlarmStack :

基于Vivado的RISC-V五级流水线CPU FPGA实现详解

手把手教你用 Vivado 实现一个 RISC-V 五级流水线 CPU(FPGA 实战全记录) 当问题从课本走向 FPGA 开发板 你有没有过这样的经历?在《计算机组成原理》课上听得头头是道:五级流水、数据旁路、控制冒险……可一旦打开 Vivado 想自己搭一个,瞬间懵了——PC 怎么跳?寄存器文件读写冲突怎么办?分支预测失败后怎么“擦屁股”? 别慌。我也是这么过来的。 今天,我就带你 从零开始,在 Xilinx Artix-7 FPGA 上实现一个完整的 RISC-V 五级流水线 CPU 。不是仿真玩玩,而是真正能跑通汇编程序、点亮 LED 的硬核项目。 我们不堆术语,不照搬教材框图,只讲你真正需要知道的实战细节:每个模块怎么写,关键信号怎么连,