AMD显卡在windows中通过WSL安装使用stable diffusion(WebUI和ComfyUI)

确认windows的amd显卡驱动版本,至少不低于24.12.1,具体可以查看对应

一、安装wsl和ubuntu。

1.安装wsl2:

wsl --install

2.安装ubuntu(24.04、22.04等):

wsl.exe --install ubuntu-24.04

3.更改ubuntu安装位置(可选):

wsl --manage ubuntu-24.04 --move <location>

4.进入wsl实例:

#输入wsl -d <version>进入制定版本或输入wsl进入默认实例 wsl -d ubuntu-24.04

可按Ctrl+D退出当前实例。

关闭实例:

wsl --shutdown

检查实例状态:

wsl -l -v

二、安装rocm(示例为安装rcom6.3.4)。

1.安装 AMD 统一驱动程序包存储库和安装程序脚本

具体rcom适配情况可查看(https://rocm.docs.amd.com/projects/radeon-ryzen/en/latest/docs/compatibility/compatibilityrad/wsl/wsl_compatibility.html

注意:ubuntu24.04和ubuntu22.04两者下载的包不一样,ubuntu24.04对应noble,ubuntu22.04对应jammy,具体下载网址为https://repo.radeon.com/amdgpu-install/

ubuntu24.04:

cd sudo apt update wget https://repo.radeon.com/amdgpu-install/6.3.4/ubuntu/noble/amdgpu-install_6.3.60304-1_all.deb sudo apt install ./amdgpu-install_6.3.60304-1_all.deb

ubuntu22.04:

cd sudo apt update wget https://repo.radeon.com/amdgpu-install/6.3.4/ubuntu/jammy/amdgpu-install_6.3.60304-1_all.deb sudo apt install ./amdgpu-install_6.3.60304-1_all.deb

2.查看可用用例列表(可选):

sudo amdgpu-install --list-usecase

3.安装rcom:

sudo amdgpu-install --list-usecase

4.检查rcom安装情况:

rocminfo

如果正确显示显卡信息,则安装成功

三、安装conda(可选)

1.安装conda(用于管理Python版本):

cd wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh bash ./Miniconda3-latest-Linux-x86_64.sh

需重启控制台,只需要退出wsl就可以了,按Ctrl+D,然后再启动wsl就可以了

2.创建名为sd的环境,Python版本为3.10(建议webUI和comfyui各自创建一个环境):

conda create -n sd python=3.10 -y

3.激活环境sd:

conda activate sd

若需要退出当前conda环境:

conda deactivate

四、安装pytorch(若没有使用conda,请自行安装python3)

1.下载对应python版本的whl文件:

cd wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torch-2.4.0%2Brocm6.3.4.git7cecbf6d-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torchvision-0.19.0%2Brocm6.3.4.gitfab84886-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/pytorch_triton_rocm-3.0.0%2Brocm6.3.4.git75cc27c2-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torchaudio-2.4.0%2Brocm6.3.4.git69d40773-cp310-cp310-linux_x86_64.whl

 (根据安装的Python版本确定安装包,安装包的名字中cpxxx为安装python版本,例如cp310对应python3.10版本)

https://repo.radeon.com/rocm/manylinux/

2.安装下载的whl:

pip3 uninstall torch torchvision pytorch-triton-rocm pip3 install torch-2.4.0%2Brocm6.3.4.git7cecbf6d-cp310-cp310-linux_x86_64.whl torchvision-0.19.0%2Brocm6.3.4.gitfab84886-cp310-cp310-linux_x86_64.whl torchaudio-2.4.0%2Brocm6.3.4.git69d40773-cp310-cp310-linux_x86_64.whl pytorch_triton_rocm-3.0.0%2Brocm6.3.4.git75cc27c2-cp310-cp310-linux_x86_64.whl

3.更新 WSL 兼容的运行时库:

location=$(pip show torch | grep Location | awk -F ": " '{print $2}') cd ${location}/torch/lib/ rm libhsa-runtime64.so*

4.libhsa-runtime64.so 至少需要安装 GCC 12.1,conda环境可以升级gcc版本(可选):

conda install -c conda-forge gcc=12.1.0

5.验证安装情况:

python3 -c 'import torch' 2> /dev/null && echo 'Success' || echo 'Failure' python3 -c 'import torch; print(torch.cuda.is_available())' python3 -c "import torch; print(f'device name [0]:', torch.cuda.get_device_name(0))"

输出结果分别为:Success、Ture、显卡型号则安装成功。

验证pytorch环境:

python3 -m torch.utils.collect_env

五、安装stable-diffusion-WebUI和ComfyUI

1.安装stable-diffusion-WebUI

(1)克隆Stable Diffusion WebUI到本地并安装依赖:

cd git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui pip install -r requirements.txt

(2)下载汉化包:

cd && cd ~/stable-diffusion-webui/extensions git clone https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN.git

(3)运行stable-diffusion-WebUI:

cd && cd stable-diffusion-webui python launch.py

2.安装ComfyUI

(1)克隆ComfyUI到本地并安装依赖:

cd git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI pip install -r requirements.txt

(2)与stable-diffusion-WebUI共享库(可选):

cd ~/ComfyUI mv extra_model_paths.yaml.example extra_model_paths.yaml vim extra_model_paths.yaml

在vim中将文件中“base_path: path/to/stable-diffusion-webui/”改为“base_path: /home/用户名/stable-diffusion-webui/”

(3)运行ComfyUI:

cd && cd ComfyUI Python main.py

Read more

TSPR-WEB-LLM-HIC (TWLH四元结构)AI生成式引擎(GEO)技术白皮书

TSPR-WEB-LLM-HIC (TWLH四元结构)AI生成式引擎(GEO)技术白皮书

TSPR-WEB-LLM-HIC 四元结构 AI 生成式引擎(GEO)技术白皮书   版本:V2.0 发布日期:2026年4月 编制:拓世网络技术团队   摘要   本白皮书系统阐述 TSPR-WEB-LLM-HIC 四元结构 AI 生成式引擎的技术体系、架构设计、核心能力与应用价值。该引擎是一套已落地验证的 AI 内容工程化方案,以概率化递推技术(TSPR-TS)为核心中枢,整合多源数据采集(WEB)、多模型大语言模型调用(LLM)与人机协同控制(HIC),构建从数据采集、意图建模、结构化投喂到协同代码生成的全链路闭环能力。引擎不训练大模型,仅利用现有 AI 进行语义分析与内容生成,兼顾效率、成本与可控性,可广泛应用于网站优化、推荐系统、内容平台及 AI 搜索优化(GEO/AEO/SEO)

【Java Web学习 | 第五篇】CSS(4) -盒子模型

【Java Web学习 | 第五篇】CSS(4) -盒子模型

🌈个人主页: Hygge_Code🔥热门专栏:从0开始学习Java | Linux学习| 计算机网络💫个人格言: “既然选择了远方,便不顾风雨兼程” 文章目录 * CSS盒子模型🥝 * 1. 什么是CSS盒子模型? * 2. 边框(border):盒子的"外衣"🍋‍🟩 * 边框的基本属性 * 单边边框设置 * 边框对盒子大小的影响 * 表格细线边框 * 3. 内边距(padding):内容与边框的缓冲带🍋‍🟩 * 内边距的基本用法 * 内边距对盒子大小的影响 * 内边距的实用技巧 * 内边距不影响盒子大小的特殊情况 * 4. 外边距(margin):盒子之间的距离🍋‍🟩 * 外边距的基本用法 * 外边距的典型应用:水平居中 * 外边距合并问题 * 清除默认内外边距🐦‍🔥 * 综合代码演示 * CSS美化三剑客:圆角边框、盒子阴影与文字阴影🥝 * 1. 圆角边框(border-radius):告别生

Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构

Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构 前言 在鸿蒙(OpenHarmony)生态迈向全场景分布式协同、涉及设备端侧 API 暴露、轻量化资源服务镜像及严苛的跨端 RPC 通信背景下,如何实现一套既能保持极低内存足迹(Footprint)、又能提供类似后端(Node.js/Koa)般丝滑开发体验且具备全异步处理能力的“端侧 Web 基座”,已成为决定应用分布式自治能力与全栈同构效率的关键。在鸿蒙设备这类强调 AOT 极致效能与背景任务严格限制的环境下,如果应用依然采用重量级的 HTTP 服务端,由于由于进程级的上下文切换开销,极易由于由于“算力溢出”导致鸿蒙应用在作为服务端响应时发生明显的电量损耗。 我们需要一种能够解耦路由逻辑、支持

Web 可访问性最佳实践:构建人人可用的前端界面

Web 可访问性最佳实践:构建人人可用的前端界面 代码如诗,包容如画。让我们用可访问性的理念,构建出人人都能使用的前端界面。 什么是 Web 可访问性? Web 可访问性(Web Accessibility)是指网站、工具和技术能够被所有人使用,包括那些有 disabilities 的人。这意味着无论用户的能力如何,他们都应该能够感知、理解、导航和与 Web 内容交互。 为什么 Web 可访问性很重要? 1. 法律要求:许多国家和地区都有法律法规要求网站必须具有可访问性。 2. 扩大用户群体:约 15% 的世界人口生活有某种形式的 disability,可访问性可以让更多人使用你的网站。 3. SEO 优化:搜索引擎爬虫依赖于可访问性良好的网站结构。 4. 更好的用户体验:可访问性改进通常会使所有用户受益,而不仅仅是那些有 disabilities 的用户。 5. 社会责任: