共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站

共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站
还在为本地硬件不足跑不动 AI 绘图模型发愁?想快速拥有高性价比的 Stable Diffusion 绘图环境?今天给大家带来共绩算力 RTX 5090 部署 Stable Diffusion WebUI(增强版)的详细教程,全程零兼容冲突,从云主机配置到生成第一张 AI 画作仅需 30 分钟,步骤清晰可复现,无论是设计爱好者还是 AI 新手都能轻松上手!

目录

一、为什么选择共绩算力部署 Stable Diffusion?

二、环境准备:精准配置云主机

2.1 创建云主机实例

1.2 登录云主机终端

二、完整部署流程

2.1 环境清理与依赖安装

2.2 下载与配置Stable Diffusion WebUI

2.3 配置启动脚本

2.4 首次启动与配置

三、本地访问与基础使用

3.1 浏览器访问WebUI

3.2 生成第一张AI图片

3.3 常用功能体验

四、进阶优化与插件安装

4.1 安装实用插件

4.2 性能优化配置

4.3 模型管理技巧

五、故障排查与维护

5.1 常见问题解决

5.2 日常维护命令

六、总结与资源推荐

6.1 部署成果总结

6.2 进阶学习资源

6.3 成本优化建议


一、为什么选择共绩算力部署 Stable Diffusion?

共绩科技的云主机专为 AI 开发场景优化,对 Stable Diffusion 这类图形密集型任务适配性拉满,核心优势直击痛点:

丰富高端 GPU 可选:RTX 5090(32GB 显存)完美支撑大模型 + 高清绘图,避免显存不足(OOM)问题开箱即用的开发环境:预装 Python 3.10+、CUDA 12.8 及适配驱动,无需手动配置深度学习框架弹性计费更省钱:1.68 元 / 时起步,关机零费用,仅按实际使用时长计费,比本地装机成本低 90%完整工具链支持:自带 Jupyter、Web Shell 等终端,无需 SSH 配置,浏览器即可完成所有操作国内网络加速:访问 PyPI 镜像、模型仓库无卡顿,下载大模型速度比海外云平台快 3 倍

二、环境准备:精准配置云主机

2.1 创建云主机实例

1. 访问共绩算力平台

2. 创建云主机配置详解

  • 进入控制台 → 云主机 → 创建实例
  • 基础配置
    • 实例名称:SD-WebUI-RTX5090(便于识别)
    • 算力规格:RTX 5090(32GB显存) ← 关键选择!
    • 系统镜像:默认Linux镜像(已预装Python 3.10+、CUDA 12.8)
  • 存储配置
    • 系统盘:50GB(默认足够)
    • 数据盘:如需要存储大量模型,可添加共享存储卷(按需付费)
  • 网络与安全
    • 区域选择:安徽一区广东一区(国内网络更稳定)
    • 安全组:默认开放全部端口(方便后续访问)

3. 确认创建与启动

  1. 点击"立即创建",等待2-3分钟实例状态变为"运行中"
  2. 成本提示:RTX 5090实例约2.5元/小时,关机期间不收费!

1.2 登录云主机终端

1. Web Shell登录(推荐新手)

  • 实例列表点击"登录" → 选择"Web Shell"
  • 浏览器内直接打开终端界面,无需SSH配置

2. 验证基础环境在终端中执行以下命令,检查预装环境:

# 检查Python版本 python3 --version # 检查CUDA版本 nvcc --version # 检查GPU状态 nvidia-smi

3. 正常输出应显示Python 3.10+、CUDA 12.8、RTX 5090显卡信息。


二、完整部署流程

2.1 环境清理与依赖安装

步骤1:彻底清理冲突环境

# 卸载可能冲突的包(避免版本不兼容) pip3 uninstall -y torch torchvision torchaudio xformers diffusers transformers # 彻底清理残留文件 rm -rf /root/.cache/pip rm -rf /opt/miniconda3/lib/python3.12/site-packages/{torch*,xformers*,diffusers*,transformers*} # 更新pip并清理缓存 pip3 install --upgrade pip pip3 cache purge

步骤2:安装PyTorch与基础依赖

# 安装适配RTX 5090的PyTorch(CUDA 12.8版本) pip3 install torch==2.7.1 torchvision==0.22.1 torchaudio==2.7.1 \ --index-url https://download.pytorch.org/whl/cu128 \ -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装图像处理基础库 pip3 install numpy==1.26.4 pillow==10.3.0 opencv-python==4.9.0.80 \ -i https://pypi.tuna.tsinghua.edu.cn/simple

步骤3:安装Stable Diffusion核心依赖

# 安装HuggingFace相关库 pip3 install transformers accelerate diffusers \ -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装Web界面框架 pip3 install gradio==3.41.2 fastapi==0.104.1 uvicorn==0.24.0 \ -i https://pypi.tuna.tsinghua.edu.cn/simple # 安装性能优化插件 pip3 install xformers -i https://pypi.tuna.tsinghua.edu.cn/simple

2.2 下载与配置Stable Diffusion WebUI

步骤1:克隆最新版WebUI源码

# 安装git(如果未预装) apt update && apt install -y git wget # 克隆AUTOMATIC1111的WebUI(功能最全的版本) git clone https://gitee.com/mirrors/stable-diffusion-webui.git /root/sd-webui # 进入工作目录 cd /root/sd-webui

步骤2:创建模型目录结构

# 创建必要的模型目录 mkdir -p /root/sd-webui/models/Stable-diffusion # 基础模型 mkdir -p /root/sd-webui/models/Lora # LoRA模型 mkdir -p /root/sd-webui/models/VAE # VAE模型 mkdir -p /root/sd-webui/models/ControlNet # ControlNet模型 mkdir -p /root/sd-webui/outputs # 输出目录

步骤3:下载基础模型(国内镜像加速)

# 使用 Hugging Face 国内镜像 wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors \ https://hf-mirror.com/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors # 或者使用阿里云镜像 wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors \ https://mirror.ghproxy.com/https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors # 下载SDXL精炼模型(优化细节) wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_refiner_1.0.safetensors \ https://hf-mirror.com/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors # 下载中文优化模型(可选,提升中文提示词理解) wget -O /root/sd-webui/models/Stable-diffusion/chilloutmix_NiPrunedFp32Fix.safetensors \ https://hf-mirror.com/ckpt/chilloutmix/resolve/main/chilloutmix_NiPrunedFp32Fix.safetensors

2.3 配置启动脚本

创建一键启动脚本start_sd.sh

cat > /root/sd-webui/start_sd.sh << 'EOF' #!/bin/bash # 进入WebUI目录 cd /root/sd-webui # 设置环境变量 export PYTHONPATH="/root/sd-webui:$PYTHONPATH" export HF_HOME="/root/.cache/huggingface" # 启动参数说明: # --listen:允许外部访问 # --port 7860:指定端口 # --xformers:启用显存优化 # --enable-insecure-extension-access:允许安装插件 # --medvram:中等显存优化模式(适合RTX 5090) # --no-half-vae:避免VAE精度问题 python3 launch.py \ --listen \ --port 7860 \ --xformers \ --enable-insecure-extension-access \ --medvram \ --no-half-vae \ --skip-torch-cuda-test \ --skip-version-check \ --update-check EOF # 赋予执行权限 chmod +x /root/sd-webui/start_sd.sh

2.4 首次启动与配置

步骤1:首次启动WebUI

cd /root/sd-webui ./start_sd.sh

报错解决:

# Deactivate current environments conda deactivate conda deactivate # Create a new environment with Python 3.10.6 conda create -n sd-webui python=3.10.6 # Activate the new environment conda activate sd-webui # Navigate to your project and run the script cd /root/sd-webui ./start_sd.sh

首次启动会自动:

  • 下载CLIP模型和VAE模型(约5-10分钟)
  • 编译xformers优化器
  • 初始化Web界面

等待终端显示以下信息即启动成功:

Running on local URL: http://0.0.0.0:7860 To create a public link, set `share=True` in `launch()`.

步骤2:后台运行配置(重要)

为避免断开SSH后服务停止,配置后台运行:

# 创建后台启动脚本 cat > /root/sd-webui/start_sd_background.sh << 'EOF' #!/bin/bash cd /root/sd-webui nohup python3 launch.py \ --listen \ --port 7860 \ --xformers \ --enable-insecure-extension-access \ --medvram \ --no-half-vae \ > /root/sd-webui/webui.log 2>&1 & echo "WebUI已启动,日志文件:/root/sd-webui/webui.log" echo "查看日志:tail -f /root/sd-webui/webui.log" echo "停止服务:pkill -f launch.py" EOF chmod +x /root/sd-webui/start_sd_background.sh # 启动后台服务 ./start_sd_background.sh

三、本地访问与基础使用

3.1 浏览器访问WebUI

1. 获取公网IP

  • 共绩控制台 → 云主机 → 实例详情 → 复制"公网IP"

2. 浏览器访问

  • 本地浏览器打开:http://你的公网IP:7860
  • 首次加载约30秒,出现Stable Diffusion WebUI界面

3.2 生成第一张AI图片

1. 模型选择

左上角选择:sd_xl_base_1.0.safetensors

2. 提示词填写

# 正向提示词(英文效果更好) masterpiece, best quality, 8k resolution, cyberpunk cityscape at night, neon lights, futuristic buildings, rain-wet streets, cinematic lighting, detailed reflections # 反向提示词(避免不良效果) low quality, worst quality, bad anatomy, blurry, jpeg artifacts, watermark, text

3. 参数设置

  • 采样方法:DPM++ 2M Karras
  • 采样步数:25
  • 图片宽度:1024
  • 图片高度:768
  • 提示词引导系数:7.5
  • 随机种子:-1(随机)

4. 生成图片

  • 点击"生成"按钮
  • RTX 5090约15秒完成生成
  • 右键图片可保存到本地

3.3 常用功能体验

图生图功能:上传本地图片 → 调整重绘强度(0.5-0.7)→ 添加风格提示词

图片放大:生成后点击"Extras" → 选择放大算法(ESRGAN)→ 调整倍数

模型管理:设置 → Model Settings → 添加模型下载路径


四、进阶优化与插件安装

4.1 安装实用插件

通过WebUI安装(推荐):

  1. 进入"Extensions"标签页
  2. 点击"Available" → "Load from URL"
  3. 输入插件GitHub地址:
    1. 中文翻译:https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN
    2. 提示词自动补全:https://github.com/DominikDoom/a1111-sd-webui-tagcomplete
    3. 模型预览图:https://github.com/AlUlkesh/stable-diffusion-webui-images-browser

命令行安装:

cd /root/sd-webui/extensions git clone https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN git clone https://github.com/DominikDoom/a1111-sd-webui-tagcomplete

4.2 性能优化配置

修改启动参数webui-user.sh

# 编辑用户配置 nano /root/sd-webui/webui-user.sh # 添加以下优化参数 export COMMANDLINE_ARGS="--listen --xformers --opt-split-attention --no-half-vae --medvram" export TORCH_COMMAND="pip3 install torch==2.7.1 torchvision==0.22.1"

4.3 模型管理技巧

批量下载模型:

# 编辑用户配置 nano /root/sd-webui/webui-user.sh # 添加以下优化参数 export COMMANDLINE_ARGS="--listen --xformers --opt-split-attention --no-half-vae --medvram" export TORCH_COMMAND="pip3 install torch==2.7.1 torchvision==0.22.1"

五、故障排查与维护

5.1 常见问题解决

问题1:浏览器无法访问

# 检查服务状态 ps aux | grep python | grep launch # 检查端口占用 netstat -tlnp | grep 7860 # 重启服务 pkill -f launch.py cd /root/sd-webui && ./start_sd_background.sh

问题2:显存不足(OOM)

  • 解决方案:减少图片尺寸(1024×1024以内)
  • 启用--medvram--lowvram参数
  • 关闭其他占用显存的进程

问题3:模型加载失败

# 重新下载模型 rm -f /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors [模型链接]

5.2 日常维护命令

查看服务状态:

# 查看运行日志 tail -f /root/sd-webui/webui.log # 查看GPU使用情况 watch -n 1 nvidia-smi # 检查存储空间 df -h /root

备份重要数据:

# 备份模型配置 tar -czf sd_backup_$(date +%Y%m%d).tar.gz /root/sd-webui/models/ /root/sd-webui/outputs/

六、总结与资源推荐

6.1 部署成果总结

通过本教程,你已经成功在共绩算力RTX 5090上部署了:

  • ✅ 完整的Stable Diffusion WebUI环境
  • ✅ SDXL 1.0等高质量基础模型
  • ✅ 中文化界面和实用插件
  • ✅ 优化后的启动参数和后台运行
  • ✅ 可远程访问的专业级AI绘图工作站

6.2 进阶学习资源

提示词技巧:

  • 学习网站:Lexica.art、OpenArt.ai
  • 关键词组合:质量词+主体+风格+细节

模型推荐:

  • 写实风格:Realistic Vision、ChilloutMix
  • 动漫风格:Anything V5、Counterfeit
  • 特殊风格:Arcane、MoDi

参数优化:

  • 采样器:DPM++ 2M Karras(平衡速度质量)
  • 步数:20-30步(效果与速度平衡)
  • CFG Scale:7-9(创意与服从度平衡)

6.3 成本优化建议

  1. 及时关机:不用时在控制台关机,仅按实际使用时间计费
  2. 使用快照:配置好环境后创建系统快照,便于快速恢复
  3. 模型管理:只下载常用模型,避免存储空间浪费

Read more

【前沿解析】AI双重突破:从全自动科研到AIGC电影,2026年2月28日的技术革命

关键词:FARS全自动科研系统、AIGC动画电影《团圆令》、多智能体协作、AI视频生成、科研范式革命 摘要 2026年2月28日,人工智能领域同时迎来了两个里程碑式的突破:FARS全自动科研系统在无人干预下连续产出100篇学术论文,以及中国首部AIGC动画电影《团圆令》 正式上映。这两个看似不相关的进展,实际上共同揭示了AI技术发展的深层逻辑——从单一任务执行向复杂系统协作的范式转移。本文将深度解析这两大突破的技术原理、系统架构、产业影响,并提供完整的Python代码实现示例,探讨AI如何同时改变科学发现和文化创作的基本范式。 一、双重突破:同一逻辑下的两个奇迹 1.1 FARS:科研的工业化革命 2026年2月12日晚10点,一套名为FARS(Fully Automated Research System) 的全自动研究系统正式启动,目标是在无人干预下连续产出100篇完整学术论文。9天半后(228小时28分33秒),实验提前收官,官方数据显示: * 产出规模:生成244个研究假设,完成100篇短论文 * 资源消耗:累计消耗114亿Token,总成本

彻底关闭Win10中烦人的365 Copilot弹窗的6种方法

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 点击'项目生成'按钮,等待项目生成完整后预览效果 输入框输入如下内容 帮我开发一个Windows系统优化小工具,用于帮助普通用户一键禁用各类系统弹窗和推送功能。系统交互细节:1.提供常见弹窗类型选择 2.显示当前系统状态 3.一键禁用功能 4.支持恢复默认设置。注意事项:需要管理员权限运行 最近很多Win10用户在系统升级后都遇到了Microsoft 365 Copilot频繁弹窗的问题,这个功能虽然智能,但频繁的打扰确实影响工作效率。经过实测,我总结了6种有效的关闭方法,从简单隐藏到彻底禁用一应俱全。 1. 任务栏临时隐藏是最简单的解决方案,只需右键任务栏取消勾选相关选项。但这个方法只是隐藏入口,Copilot功能仍在后台运行。 2. 组策略彻底禁用是最推荐的方式,通过系统内置的组策略编辑器可以完全关闭Copilot。操作时需要管理员权限,设置完成后需要重启生效。这个方法禁用后连快捷键都会失效,

新手如何用AI写小说?全流程教学+3款好用的AI写作软件推荐(附提示词)

新手如何用AI写小说?全流程教学+3款好用的AI写作软件推荐(附提示词)

最近后台私信都要爆了,好多粉丝朋友问我:“大大,我也想做自媒体写网文,但每次对着空白文档就想把键盘吃了怎么办?”、“大纲写得跟流水账一样,还没写到第十章就崩了……” 作为一个在码字圈摸爬滚打多年,掉过无数坑、也熬过无数通宵的写小说的老兵,我太懂这种“甚至不知道第一句话该写什么”的崩溃感了。 这两年为了找顺手的工具,我当真是神农尝百草,把市面上主流的ai写小说工具试了个遍。接下来我会教大家怎么用通用大模型进行一些写作前的准备(包括提示词),准备工作充足后再开始用AI写作工具填充内容。 一、写作前的准备工作 1、确定小说类型与主题 在开始创作前,先明确小说的基本方向: * 赛道选择: 明确核心流派(如赛博朋克、修真、本格推理等)与细分领域。 * 内核设定: 提炼作品的中心思想与核心价值观(Theme)。 * 受众锚定: 清晰画像目标读者群体。 * 竞品调研: 分析市场风向,寻找题材蓝海。 提示词: 请扮演一位资深网文编辑,分析当前玄幻小说市场的热门趋势。请提供 5个具有爆款潜力的创新主题。对于每个主题,请包含以下内容: 核心概念: 一句话概括故事内核。 世界观

2026年高校论文AI率新规解读:哪些学校已明确AIGC检测要求

2026年高校论文AI率新规解读:哪些学校已明确AIGC检测要求

2026年高校论文AI率新规解读:哪些学校已明确AIGC检测要求 引言:AI率检测成为毕业"新门槛" 2026年毕业季,一个让无数毕业生焦虑的新词频繁出现在各大高校的通知文件中——AIGC检测。和传统的查重率不同,AIGC检测针对的是论文中由人工智能生成内容的占比,也就是我们常说的"AI率"。 从2024年下半年开始,教育部就多次发文要求高校加强对学术不端行为的管理,其中明确将"使用AI工具代写论文"纳入学术不端范畴。进入2026年,越来越多的高校不再只是口头警示,而是将AIGC检测正式写入毕业论文管理办法,成为论文答辩前必须通过的一道硬性关卡。 那么,目前到底有哪些学校已经明确了AIGC检测要求?各校的AI率标准又是多少?这篇文章将为你全面梳理和解读2026年的高校论文AI率新规。 一、政策背景:为什么高校越来越重视AI率检测 1.1 AI写作工具的普及倒逼政策升级 ChatGPT在2022年底横空出世后,以其为代表的大语言模型迅速普及。国内如文心一言、通义千问、讯飞星火等AI工具相继上线,AI写作的门槛被大幅降低。据不完全统计,2025年有超过60%的在校大学生使