AMD显卡在windows中通过WSL安装使用stable diffusion(WebUI和ComfyUI)

确认windows的amd显卡驱动版本,至少不低于24.12.1,具体可以查看对应

一、安装wsl和ubuntu。

1.安装wsl2:

wsl --install

2.安装ubuntu(24.04、22.04等):

wsl.exe --install ubuntu-24.04

3.更改ubuntu安装位置(可选):

wsl --manage ubuntu-24.04 --move <location>

4.进入wsl实例:

#输入wsl -d <version>进入制定版本或输入wsl进入默认实例 wsl -d ubuntu-24.04

可按Ctrl+D退出当前实例。

关闭实例:

wsl --shutdown

检查实例状态:

wsl -l -v

二、安装rocm(示例为安装rcom6.3.4)。

1.安装 AMD 统一驱动程序包存储库和安装程序脚本

具体rcom适配情况可查看(https://rocm.docs.amd.com/projects/radeon-ryzen/en/latest/docs/compatibility/compatibilityrad/wsl/wsl_compatibility.html

注意:ubuntu24.04和ubuntu22.04两者下载的包不一样,ubuntu24.04对应noble,ubuntu22.04对应jammy,具体下载网址为https://repo.radeon.com/amdgpu-install/

ubuntu24.04:

cd sudo apt update wget https://repo.radeon.com/amdgpu-install/6.3.4/ubuntu/noble/amdgpu-install_6.3.60304-1_all.deb sudo apt install ./amdgpu-install_6.3.60304-1_all.deb

ubuntu22.04:

cd sudo apt update wget https://repo.radeon.com/amdgpu-install/6.3.4/ubuntu/jammy/amdgpu-install_6.3.60304-1_all.deb sudo apt install ./amdgpu-install_6.3.60304-1_all.deb

2.查看可用用例列表(可选):

sudo amdgpu-install --list-usecase

3.安装rcom:

sudo amdgpu-install --list-usecase

4.检查rcom安装情况:

rocminfo

如果正确显示显卡信息,则安装成功

三、安装conda(可选)

1.安装conda(用于管理Python版本):

cd wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh bash ./Miniconda3-latest-Linux-x86_64.sh

需重启控制台,只需要退出wsl就可以了,按Ctrl+D,然后再启动wsl就可以了

2.创建名为sd的环境,Python版本为3.10(建议webUI和comfyui各自创建一个环境):

conda create -n sd python=3.10 -y

3.激活环境sd:

conda activate sd

若需要退出当前conda环境:

conda deactivate

四、安装pytorch(若没有使用conda,请自行安装python3)

1.下载对应python版本的whl文件:

cd wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torch-2.4.0%2Brocm6.3.4.git7cecbf6d-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torchvision-0.19.0%2Brocm6.3.4.gitfab84886-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/pytorch_triton_rocm-3.0.0%2Brocm6.3.4.git75cc27c2-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torchaudio-2.4.0%2Brocm6.3.4.git69d40773-cp310-cp310-linux_x86_64.whl

 (根据安装的Python版本确定安装包,安装包的名字中cpxxx为安装python版本,例如cp310对应python3.10版本)

https://repo.radeon.com/rocm/manylinux/

2.安装下载的whl:

pip3 uninstall torch torchvision pytorch-triton-rocm pip3 install torch-2.4.0%2Brocm6.3.4.git7cecbf6d-cp310-cp310-linux_x86_64.whl torchvision-0.19.0%2Brocm6.3.4.gitfab84886-cp310-cp310-linux_x86_64.whl torchaudio-2.4.0%2Brocm6.3.4.git69d40773-cp310-cp310-linux_x86_64.whl pytorch_triton_rocm-3.0.0%2Brocm6.3.4.git75cc27c2-cp310-cp310-linux_x86_64.whl

3.更新 WSL 兼容的运行时库:

location=$(pip show torch | grep Location | awk -F ": " '{print $2}') cd ${location}/torch/lib/ rm libhsa-runtime64.so*

4.libhsa-runtime64.so 至少需要安装 GCC 12.1,conda环境可以升级gcc版本(可选):

conda install -c conda-forge gcc=12.1.0

5.验证安装情况:

python3 -c 'import torch' 2> /dev/null && echo 'Success' || echo 'Failure' python3 -c 'import torch; print(torch.cuda.is_available())' python3 -c "import torch; print(f'device name [0]:', torch.cuda.get_device_name(0))"

输出结果分别为:Success、Ture、显卡型号则安装成功。

验证pytorch环境:

python3 -m torch.utils.collect_env

五、安装stable-diffusion-WebUI和ComfyUI

1.安装stable-diffusion-WebUI

(1)克隆Stable Diffusion WebUI到本地并安装依赖:

cd git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui pip install -r requirements.txt

(2)下载汉化包:

cd && cd ~/stable-diffusion-webui/extensions git clone https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN.git

(3)运行stable-diffusion-WebUI:

cd && cd stable-diffusion-webui python launch.py

2.安装ComfyUI

(1)克隆ComfyUI到本地并安装依赖:

cd git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI pip install -r requirements.txt

(2)与stable-diffusion-WebUI共享库(可选):

cd ~/ComfyUI mv extra_model_paths.yaml.example extra_model_paths.yaml vim extra_model_paths.yaml

在vim中将文件中“base_path: path/to/stable-diffusion-webui/”改为“base_path: /home/用户名/stable-diffusion-webui/”

(3)运行ComfyUI:

cd && cd ComfyUI Python main.py

Read more

硕士论文盲审前降AI率:盲审评委到底会不会看AIGC报告?

硕士论文盲审前降AI率:盲审评委到底会不会看AIGC报告? 最近收到不少同学私信问我:"学长,我硕士论文马上要送盲审了,学校说要做AIGC检测,但盲审评委真的会看这个报告吗?"说实话,这个问题我当初也纠结过。今天就把我了解到的情况和大家详细聊聊,希望能帮到正在准备盲审的同学。 盲审流程中AIGC检测处于什么位置? 盲审前的"关卡"越来越多 以前硕士论文盲审,学校主要关注的就是查重率。但从2025年下半年开始,越来越多的高校在盲审前增加了AIGC检测环节。根据我收集到的信息,目前的盲审流程大致是这样的: 环节时间节点负责方是否涉及AI检测论文提交盲审前2-4周研究生院部分学校要求提交检测报告查重检测盲审前1-2周学院/研究生院与AIGC检测同步进行AIGC检测盲审前1-2周学院/研究生院是,多数用知网系统送审盲审开始研究生院统一安排部分学校附带检测报告评审盲审期间(2-4周)外校评委评委可能收到报告 三种常见的学校处理方式 经过调研,我发现不同学校对盲审中AIGC检测的处理方式主要分三种: 第一种:检测不通过直接不送审。 这是最严格的情况。如果AIGC检测率超过

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

Copilot 指令文件全解析:copilot-instructions.md vs AGENTS.md vs .instructions.md 作为常年和 VS Code 打交道的研发,最近在折腾 Copilot Agent 时,我发现很多同学和我一样,被 .github/copilot-instructions.md、AGENTS.md 和 .instructions.md 这三个文件绕晕了。 明明都是给 Copilot 写的 “指令”,为什么要分三个文件?它们的生效范围有啥区别?什么时候该用哪一个? 带着这些疑问,我翻遍了官方文档,又在自己的 AI Agent 项目里反复实测,终于把这三者的关系理得清清楚楚。这篇文章就用最直白的语言,结合实战配置,帮你彻底搞懂 Copilot 指令文件的使用逻辑。 一、先搞懂核心:

EpicDesigner快速上手指南:Vue3拖拽式低代码设计器

EpicDesigner快速上手指南:Vue3拖拽式低代码设计器 【免费下载链接】epic-designer 项目地址: https://gitcode.com/gh_mirrors/ep/epic-designer 项目快速了解 EpicDesigner是一款基于Vue3开发的现代化低代码设计器,它让页面开发变得像搭积木一样简单。无论你是前端新手还是资深开发者,都能通过拖拽组件的方式快速生成功能完整的页面。 环境准备清单 在开始安装之前,请确保你的开发环境满足以下要求: 必备条件: * Node.js 14.x 或更高版本 * npm 或 yarn 包管理器 * 现代浏览器(推荐Chrome、Firefox) 可选准备: * 熟悉Vue3基础概念 * 了解JSON数据结构 三步安装法 第一步:获取项目代码 git clone https://gitcode.com/gh_mirrors/ep/epic-designer 第二步:安装依赖

小型无人机轻量化且节约成本的几种方法

小型无人机轻量化且节约成本的几种方法

小型无人机实现轻量化 + 成本控制,需要从结构设计、材料选型、功能精简、供应链管理四个核心维度切入,以下是具体可落地的方法: 一、 结构设计优化:减重量的核心手段 1. 一体化集成设计,减少冗余部件 * 取消独立的支架、连接件,将电池仓、飞控安装位、电机座与机身框架一体化注塑或 3D 打印成型,减少螺丝、卡扣等小零件的重量和装配成本。 * 示例:将飞控板直接贴合机身内壁,省去传统的安装支架,可减重 5%-10%,同时降低装配工时。 2. 拓扑优化 + 镂空设计,保留强度的同时减重 * 针对机身框架、机臂等承力部件,通过有限元分析(FEA)做拓扑优化,去除非承力区域的材料,采用网格状、蜂窝状镂空结构。 * 成本控制:使用普通注塑模具实现镂空设计,避免复杂的 CNC 加工;小批量场景可采用FDM 3D 打印,无需开模成本。