AMD显卡在windows中通过WSL安装使用stable diffusion(WebUI和ComfyUI)

确认windows的amd显卡驱动版本,至少不低于24.12.1,具体可以查看对应

一、安装wsl和ubuntu。

1.安装wsl2:

wsl --install

2.安装ubuntu(24.04、22.04等):

wsl.exe --install ubuntu-24.04

3.更改ubuntu安装位置(可选):

wsl --manage ubuntu-24.04 --move <location>

4.进入wsl实例:

#输入wsl -d <version>进入制定版本或输入wsl进入默认实例 wsl -d ubuntu-24.04

可按Ctrl+D退出当前实例。

关闭实例:

wsl --shutdown

检查实例状态:

wsl -l -v

二、安装rocm(示例为安装rcom6.3.4)。

1.安装 AMD 统一驱动程序包存储库和安装程序脚本

具体rcom适配情况可查看(https://rocm.docs.amd.com/projects/radeon-ryzen/en/latest/docs/compatibility/compatibilityrad/wsl/wsl_compatibility.html

注意:ubuntu24.04和ubuntu22.04两者下载的包不一样,ubuntu24.04对应noble,ubuntu22.04对应jammy,具体下载网址为https://repo.radeon.com/amdgpu-install/

ubuntu24.04:

cd sudo apt update wget https://repo.radeon.com/amdgpu-install/6.3.4/ubuntu/noble/amdgpu-install_6.3.60304-1_all.deb sudo apt install ./amdgpu-install_6.3.60304-1_all.deb

ubuntu22.04:

cd sudo apt update wget https://repo.radeon.com/amdgpu-install/6.3.4/ubuntu/jammy/amdgpu-install_6.3.60304-1_all.deb sudo apt install ./amdgpu-install_6.3.60304-1_all.deb

2.查看可用用例列表(可选):

sudo amdgpu-install --list-usecase

3.安装rcom:

sudo amdgpu-install --list-usecase

4.检查rcom安装情况:

rocminfo

如果正确显示显卡信息,则安装成功

三、安装conda(可选)

1.安装conda(用于管理Python版本):

cd wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh bash ./Miniconda3-latest-Linux-x86_64.sh

需重启控制台,只需要退出wsl就可以了,按Ctrl+D,然后再启动wsl就可以了

2.创建名为sd的环境,Python版本为3.10(建议webUI和comfyui各自创建一个环境):

conda create -n sd python=3.10 -y

3.激活环境sd:

conda activate sd

若需要退出当前conda环境:

conda deactivate

四、安装pytorch(若没有使用conda,请自行安装python3)

1.下载对应python版本的whl文件:

cd wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torch-2.4.0%2Brocm6.3.4.git7cecbf6d-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torchvision-0.19.0%2Brocm6.3.4.gitfab84886-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/pytorch_triton_rocm-3.0.0%2Brocm6.3.4.git75cc27c2-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torchaudio-2.4.0%2Brocm6.3.4.git69d40773-cp310-cp310-linux_x86_64.whl

 (根据安装的Python版本确定安装包,安装包的名字中cpxxx为安装python版本,例如cp310对应python3.10版本)

https://repo.radeon.com/rocm/manylinux/

2.安装下载的whl:

pip3 uninstall torch torchvision pytorch-triton-rocm pip3 install torch-2.4.0%2Brocm6.3.4.git7cecbf6d-cp310-cp310-linux_x86_64.whl torchvision-0.19.0%2Brocm6.3.4.gitfab84886-cp310-cp310-linux_x86_64.whl torchaudio-2.4.0%2Brocm6.3.4.git69d40773-cp310-cp310-linux_x86_64.whl pytorch_triton_rocm-3.0.0%2Brocm6.3.4.git75cc27c2-cp310-cp310-linux_x86_64.whl

3.更新 WSL 兼容的运行时库:

location=$(pip show torch | grep Location | awk -F ": " '{print $2}') cd ${location}/torch/lib/ rm libhsa-runtime64.so*

4.libhsa-runtime64.so 至少需要安装 GCC 12.1,conda环境可以升级gcc版本(可选):

conda install -c conda-forge gcc=12.1.0

5.验证安装情况:

python3 -c 'import torch' 2> /dev/null && echo 'Success' || echo 'Failure' python3 -c 'import torch; print(torch.cuda.is_available())' python3 -c "import torch; print(f'device name [0]:', torch.cuda.get_device_name(0))"

输出结果分别为:Success、Ture、显卡型号则安装成功。

验证pytorch环境:

python3 -m torch.utils.collect_env

五、安装stable-diffusion-WebUI和ComfyUI

1.安装stable-diffusion-WebUI

(1)克隆Stable Diffusion WebUI到本地并安装依赖:

cd git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui pip install -r requirements.txt

(2)下载汉化包:

cd && cd ~/stable-diffusion-webui/extensions git clone https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN.git

(3)运行stable-diffusion-WebUI:

cd && cd stable-diffusion-webui python launch.py

2.安装ComfyUI

(1)克隆ComfyUI到本地并安装依赖:

cd git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI pip install -r requirements.txt

(2)与stable-diffusion-WebUI共享库(可选):

cd ~/ComfyUI mv extra_model_paths.yaml.example extra_model_paths.yaml vim extra_model_paths.yaml

在vim中将文件中“base_path: path/to/stable-diffusion-webui/”改为“base_path: /home/用户名/stable-diffusion-webui/”

(3)运行ComfyUI:

cd && cd ComfyUI Python main.py

Read more

离开舒适区之后:从三年前端到 CS 硕士——我在韩国亚大读研的得失

离开舒适区之后:从三年前端到 CS 硕士——我在韩国亚大读研的得失

过去一年多,我做了一个挺重要的决定:辞职,去韩国留学读研。 这段时间我几乎没怎么学习新的前端内容,但也没有停下来。我在韩国亚洲大学完成了计算机科学与技术(大数据)硕士的学习,在高强度的节奏里重新建立了自己的方法,也因为持续写博客获得了一些机会,担任本科 Web 实训课讲师。现在这段留学告一段落,我也准备重新回到前端领域,把这段经历当作一份额外的积累带回去。这篇复盘主要是想把这一路的收获、疲惫和一些值得记住的瞬间记录下来,留给未来的自己,也分享给路过的你。 文章目录 * 1、写在前面:我为什么会从前端转去读研 * 2、留学生活的关键词:卷、AI、被看见以及校庆的“放开玩” * 3、我的“结果卡片” * 4、得:这一年半我真正收获的东西 * 5、失:我付出的代价 * 6、期末周:我经历过的“高强度交付周” * 7、前端三年经验,如何在读研里“迁移复用” * 8、我在韩国的学习系统:

前端老哥必看:window.print只打半截?一招搞定HTML实际高度打印不踩坑

前端老哥必看:window.print只打半截?一招搞定HTML实际高度打印不踩坑

前端老哥必看:window.print只打半截?一招搞定HTML实际高度打印不踩坑 * 前端老哥必看:window.print只打半截?一招搞定HTML实际高度打印不踩坑 * 别整那些虚的,咱们直接开唠 * 这玩意儿到底是个啥妖魔鬼怪 * 浏览器打印机制那点不为人知的秘密 * CSS里的print媒体查询,是救星还是坑货? * 深挖底层逻辑,把打印机按在地上摩擦 * height: auto失效?布局塌陷的锅谁来背 * 强制分页符的正确打开方式 * 动态内容高度计算,别让JS骗了打印机 * 隐藏的overflow: hidden和fixed定位 * 这招好用是好用,但也有翻车的时候 * 优点当然是爽啊 * 缺点也得认,有些坑真的躲不掉 * 实战场景大乱斗 * 电商后台订单详情打印 * 财务报表长表格打印 * 简历生成器实战 * 电子发票和物流面单 * 遇到报错别慌,老司机的排查套路 * 打印出来是空白?

B站PC端web自动开启字幕脚本(2026新版适配)

B站自动字幕用户脚本:快捷键开关 + 自动开启字幕(2026新版适配) 作者:Apixus 更新日期:2026年3月5日 项目地址:GitHub仓库 一、脚本介绍 你是否经常在B站看视频时反复手动开启字幕?是否希望切换视频时字幕能自动开启? 这个用户脚本就是为了解决这些问题而开发的。 B站自动字幕脚本 提供了以下功能: * 🎯 快捷键控制:按 C 键快速开启或关闭字幕 * 🔄 自动开启:切换分P、点击推荐视频时自动打开字幕 * 🆕  2026新版适配:专为B站最新版播放器优化 * ⚡ 性能优化:智能监听,告别卡顿轮询 * 🛡️ 防冲突:自动识别输入框,避免误触 二、适用页面 * 普通视频页:https://www.bilibili.com/video/* * 播放列表页:https://www.bilibili.com/list/* 支持普通视频页、番剧页、播放列表页等常见场景。 三、

论文AI率从60%降到20%以内的完整攻略:亲测有效的3步法

论文AI率从60%降到20%以内的完整攻略:亲测有效的3步法

论文AI率从60%降到20%以内的完整攻略:亲测有效的3步法 上周一个学弟在群里发了一张截图,检测报告上面的AI率是63.4%,他已经修改了两遍,依然没降下来。他当时快崩溃了,说答辩在15天后,导师要求AI率必须低于20%,感觉毫无希望。 这种情况其实很多人都经历过。AI写的论文痕迹很重,换几个词、调整几句语序,根本没用,检测系统识别的是深层语言特征,不是表面文字。今天这篇文章,把我试验过的3步攻略完整写出来,60%能不能降到20%以内,看完你自己判断。 先搞清楚:为什么AI率这么难降 很多人修改了半天还是降不下来,根本原因是搞错了方向。 AIGC检测系统(知网、万方、大雅这些)识别的不是具体的词汇,而是语言模式。AI生成的文本有几个典型特征:句式结构高度规整、逻辑过渡词密集("首先、其次、再次、最后"这套)、段落长度均匀、主动被动句比例异常……这些特征是一个整体,你改几个词根本动不了这个模式。