AMD显卡在windows中通过WSL安装使用stable diffusion(WebUI和ComfyUI)

确认windows的amd显卡驱动版本,至少不低于24.12.1,具体可以查看对应

一、安装wsl和ubuntu。

1.安装wsl2:

wsl --install

2.安装ubuntu(24.04、22.04等):

wsl.exe --install ubuntu-24.04

3.更改ubuntu安装位置(可选):

wsl --manage ubuntu-24.04 --move <location>

4.进入wsl实例:

#输入wsl -d <version>进入制定版本或输入wsl进入默认实例 wsl -d ubuntu-24.04

可按Ctrl+D退出当前实例。

关闭实例:

wsl --shutdown

检查实例状态:

wsl -l -v

二、安装rocm(示例为安装rcom6.3.4)。

1.安装 AMD 统一驱动程序包存储库和安装程序脚本

具体rcom适配情况可查看(https://rocm.docs.amd.com/projects/radeon-ryzen/en/latest/docs/compatibility/compatibilityrad/wsl/wsl_compatibility.html

注意:ubuntu24.04和ubuntu22.04两者下载的包不一样,ubuntu24.04对应noble,ubuntu22.04对应jammy,具体下载网址为https://repo.radeon.com/amdgpu-install/

ubuntu24.04:

cd sudo apt update wget https://repo.radeon.com/amdgpu-install/6.3.4/ubuntu/noble/amdgpu-install_6.3.60304-1_all.deb sudo apt install ./amdgpu-install_6.3.60304-1_all.deb

ubuntu22.04:

cd sudo apt update wget https://repo.radeon.com/amdgpu-install/6.3.4/ubuntu/jammy/amdgpu-install_6.3.60304-1_all.deb sudo apt install ./amdgpu-install_6.3.60304-1_all.deb

2.查看可用用例列表(可选):

sudo amdgpu-install --list-usecase

3.安装rcom:

sudo amdgpu-install --list-usecase

4.检查rcom安装情况:

rocminfo

如果正确显示显卡信息,则安装成功

三、安装conda(可选)

1.安装conda(用于管理Python版本):

cd wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh bash ./Miniconda3-latest-Linux-x86_64.sh

需重启控制台,只需要退出wsl就可以了,按Ctrl+D,然后再启动wsl就可以了

2.创建名为sd的环境,Python版本为3.10(建议webUI和comfyui各自创建一个环境):

conda create -n sd python=3.10 -y

3.激活环境sd:

conda activate sd

若需要退出当前conda环境:

conda deactivate

四、安装pytorch(若没有使用conda,请自行安装python3)

1.下载对应python版本的whl文件:

cd wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torch-2.4.0%2Brocm6.3.4.git7cecbf6d-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torchvision-0.19.0%2Brocm6.3.4.gitfab84886-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/pytorch_triton_rocm-3.0.0%2Brocm6.3.4.git75cc27c2-cp310-cp310-linux_x86_64.whl wget https://repo.radeon.com/rocm/manylinux/rocm-rel-6.3.4/torchaudio-2.4.0%2Brocm6.3.4.git69d40773-cp310-cp310-linux_x86_64.whl

 (根据安装的Python版本确定安装包,安装包的名字中cpxxx为安装python版本,例如cp310对应python3.10版本)

https://repo.radeon.com/rocm/manylinux/

2.安装下载的whl:

pip3 uninstall torch torchvision pytorch-triton-rocm pip3 install torch-2.4.0%2Brocm6.3.4.git7cecbf6d-cp310-cp310-linux_x86_64.whl torchvision-0.19.0%2Brocm6.3.4.gitfab84886-cp310-cp310-linux_x86_64.whl torchaudio-2.4.0%2Brocm6.3.4.git69d40773-cp310-cp310-linux_x86_64.whl pytorch_triton_rocm-3.0.0%2Brocm6.3.4.git75cc27c2-cp310-cp310-linux_x86_64.whl

3.更新 WSL 兼容的运行时库:

location=$(pip show torch | grep Location | awk -F ": " '{print $2}') cd ${location}/torch/lib/ rm libhsa-runtime64.so*

4.libhsa-runtime64.so 至少需要安装 GCC 12.1,conda环境可以升级gcc版本(可选):

conda install -c conda-forge gcc=12.1.0

5.验证安装情况:

python3 -c 'import torch' 2> /dev/null && echo 'Success' || echo 'Failure' python3 -c 'import torch; print(torch.cuda.is_available())' python3 -c "import torch; print(f'device name [0]:', torch.cuda.get_device_name(0))"

输出结果分别为:Success、Ture、显卡型号则安装成功。

验证pytorch环境:

python3 -m torch.utils.collect_env

五、安装stable-diffusion-WebUI和ComfyUI

1.安装stable-diffusion-WebUI

(1)克隆Stable Diffusion WebUI到本地并安装依赖:

cd git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui pip install -r requirements.txt

(2)下载汉化包:

cd && cd ~/stable-diffusion-webui/extensions git clone https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CN.git

(3)运行stable-diffusion-WebUI:

cd && cd stable-diffusion-webui python launch.py

2.安装ComfyUI

(1)克隆ComfyUI到本地并安装依赖:

cd git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI pip install -r requirements.txt

(2)与stable-diffusion-WebUI共享库(可选):

cd ~/ComfyUI mv extra_model_paths.yaml.example extra_model_paths.yaml vim extra_model_paths.yaml

在vim中将文件中“base_path: path/to/stable-diffusion-webui/”改为“base_path: /home/用户名/stable-diffusion-webui/”

(3)运行ComfyUI:

cd && cd ComfyUI Python main.py

Read more

本地多模型切换利器——Llama-Swap全攻略

本地多模型切换利器——Llama-Swap全攻略

运行多个大语言模型(LLM)非常有用: 无论是用于比较模型输出、设置备用方案(当一个模型失败时自动切换)、还是实现行为定制(例如一个模型专注写代码,另一个模型专注技术写作),实践中我们经常以这种方式使用 LLM。 一些应用(如 poe.com)已经提供了多模型运行的平台。但如果你希望完全在本地运行、多省 API 成本,并保证数据隐私,情况就会复杂许多。 问题在于:本地设置通常意味着要处理多个端口、运行不同进程,并且手动切换,不够理想。 这正是 Llama-Swap 要解决的痛点。它是一个超轻量的开源代理服务(仅需一个二进制文件),能够让你轻松在多个本地 LLM 之间切换。简单来说,它会在本地监听 OpenAI 风格的 API 请求,并根据请求的模型名称,自动启动或停止对应的模型服务。客户端无需感知底层切换,使用体验完全透明。 📌 Llama-Swap 工作原理 概念上,Llama-Swap 就像一个智能路由器,

虚幻版Pico大空间VR入门教程 05 —— 原点坐标和项目优化技巧整理

虚幻版Pico大空间VR入门教程 05 —— 原点坐标和项目优化技巧整理

大空间头显坐标朝向 一体机p4ue设备开启大空间定位识别,并框选障碍物范围,暂时不用Marker贴图精细定位。 大空间一体机范围设置文档:https://business.picoxr.com/cn/doc/Enterprise-LBE-Bestcase 非企业版设备(具体设备型号查看02章节),如果没有内置大空间功能,则需要使用第三方定位,例如RTK,ubw。 通过UE5默认的VR项目模板,修改SetTrackingOrigin记录:(括号内为UE5.3及以前旧版本枚举选项) OpenXR有线串联模式下, Stage、View(eye、EyeLevel)、Local floor(StandFloor、FloorLevel)、Local(SitFloor)、customOpenXR模式下,大空间标记障碍物和VR场景障碍物匹配, Reset Orientation and Position 则以当前玩家的位置和头显正朝向作为场景默认初始点; (如果玩家朝向东南时触发重置头显,则在VR游戏内,现实世界的东南朝向为VR游戏内的正北, 在大空间模式下需要特别注意重置头显操作,否

盘古200Pro+开发板高速通信指南:6.6Gbps光纤+PCIe x4性能实测

盘古200Pro+开发板高速通信实战:从6.6Gbps理论到稳定传输的工程化路径 对于从事通信系统、数据中心互联或高速数据采集的工程师而言,一块标称性能强劲的FPGA开发板到手后,最令人兴奋也最具挑战的环节,莫过于将手册上的理论速率转化为稳定、可靠的实测性能。紫光同创的盘古200Pro+开发板(基于PG2L200H FPGA,型号MES2L676-200HP)以其高达6.6Gbps的HSST收发器速率和PCIe x4接口,吸引了众多追求高性能国产化方案开发者的目光。然而,在真实的工程环境中,如何驾驭这些高速接口,确保数据传输的完整性与低延迟,远非接上光纤或插入PCIe插槽那么简单。本文将从一个实践者的角度,深入探讨如何在这块开发板上实现光纤与PCIe链路的高性能通信,分享从时钟优化、眼图分析到系统级调优的全流程实战经验。 1. 硬件平台深度解析与高速链路设计要点 盘古200Pro+开发板采用核心板加扩展底板的架构,其高速通信能力的基石在于紫光同创Logos2系列PG2L200H FPGA内嵌的HSST(High-Speed Serial Transceiver)模块。官方宣称每

无人机航拍图像拼接:自动识别重叠区域完成合成

无人机航拍图像拼接:自动识别重叠区域完成合成 引言:从航拍痛点出发,为何需要智能图像拼接? 在农业监测、城市规划、灾害评估等场景中,无人机航拍已成为获取高分辨率地表信息的核心手段。然而,单张航拍图像视野有限,必须通过多张图像拼接才能生成完整的全景图或地图。传统拼接方法依赖SIFT、ORB等特征匹配算法,在光照变化大、纹理重复(如农田、屋顶)的场景下容易失效,导致错位、断裂甚至拼接失败。 更关键的是,传统流程需手动指定图像对的重叠区域,效率低下且难以自动化。随着AI视觉技术的发展,基于深度学习的万物识别模型为解决这一问题提供了新思路——让模型“看懂”图像内容,自动判断哪些区域是重叠的,从而实现端到端的智能拼接。 本文将结合阿里开源的万物识别-中文-通用领域模型,构建一套完整的无人机航拍图像自动拼接方案,重点讲解如何利用该模型语义理解能力精准识别图像重叠区域,并完成高质量合成。 技术选型:为什么选择“万物识别-中文-通用领域”模型? 模型背景与核心优势 “万物识别-中文-通用领域”是阿里巴巴通义实验室推出的一款面向中文场景的通用图像识别模型。其核心目标是实现对日常物体、自