Stable Diffusion WebUI本地部署全步骤(含CUDA,cuDNN,Pytorch GPU版安装过程)(Win 11 + RTX5060)

部署SD WebUI前,先安装CUDA+cuDNN+Pytorch

电脑配置:

系统:windows 11

显卡:NVIDIA GeForce RTX 5060 Laptop GPU

内存:24G

下载版本:

CUDA:13.0

cuDNN:9.13.1

Pytorch:12.9

第一步:安装CUDA

步骤一:查看CUDA version

win+R输入cmd,在命令提示符窗口中输入nvidia-smi,查看CUDA Version

我的CUDA version 为13.0,所以我下载的版本为13.0的(也可以向下安装低版本的,我建议下载最新的版本)。
CUDA下载网址:https://developer.nvidia.com/cuda-toolkit-archive

本文以13.0的安装为例。

步骤二:下载CUDA安装包

打开网站后,选择13.0版本,点击箭头指向的位置。

跳转到下图页面

选择对应的选项,我的是win11系统,所以选择的11,如果你是win10系统,则选择10;

Installer Type可以是本地下载exe(local),也可以是exe(network),这里我选择的是exe(network),点击download即可

步骤三:运行安装包

双击运行

点“同意并继续”

选择自定义,然后点击下一步

点击下一步

这里的安装路径,可以放在C盘,也可以放在D盘,可以自定义路径,我是C盘空间不足,所以放到了D盘,路径选择好之后,点击下一步。

继续点击下一步

关闭

CUDA的安装完成

第二步:安装cuDNN

步骤一:下载cuDNN安装包

打开网址https://docs.nvidia.com/deeplearning/cudnn/backend/latest/index.html

点击cuDNN 9.13.1后下载安装包

双击运行安装包

下一步选择自定义,自定义路径选择D:\Program Files\NVIDIA\CUDNN\v9.13,然后下一步

点击关闭

cuDNN的安装完毕

第三步:安装Pytorch

步骤一:打开pytorch官网

打开pytorch官网:https://pytorch.org/get-started/locally/

下载stable版本的 CUDA 12.9
复制这串代码:pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129

步骤二:全局环境下安装pytorch

注意,这里要在全局环境下安装pytorch,不要在虚拟环境下安装pytorch。

按win+R,输入cmd打开命令提示符,

输入D: ,进入D盘

输入pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129

pytorch安装成功

第四步:本地部署Stable Diffusion WebUI

 按win+R,输入cmd打开命令提示符,

输入D: ,进入D盘

输入git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

按下Enter回车

在D盘根目录下就有一个stable-diffusion-webui文件夹

然后在项目中创建一个虚拟python环境:

cd stable-diffusion-webui //进入刚才下载项目 python -m venv .\venv //创建一个虚拟python环境

创建完成以后,我们进入到venv目录中的Scripts文件夹,执行activate:

cd .\venv\Scripts .\activate.bat

执行完成后,Windows命令行会自动清屏(之前执行的所有命令及输出结果清空),首会出现“(venv)”的字样 ,表示我们已经进入了虚拟环境。

开始安装项目的依赖项:

cd ../.. pip install -r requirements_versions.txt

等待安装完成后,运行项目:

.\webui-user.bat

还需要修改一下 webui-user.bat 这个文件, 设置PYTHON路径安装的路径/stable-diffusion-webui\venv\Scripts\python.exe:

set PYTHON=G:\StableDiffusion\stable-diffusion-webui\venv\Scripts\python.exe

后边再启动,直接双击执行webui-user.bat即可,可以发送桌面快捷方式到桌面,后面再启动,可以直接在桌面启动。

Read more

解密Midjourney第三方API服务:技术原理与合规边界探讨

解密Midjourney第三方API服务:技术实现与合规实践指南 在AI绘画领域,Midjourney以其卓越的图像生成能力成为行业标杆,但官方并未开放API接口。这催生了一批第三方服务商通过技术手段实现API化封装,为开发者提供集成解决方案。本文将深入解析其技术实现原理,并提供合规实践方案。 1. 第三方API的技术实现路径 第三方服务实现Midjourney API化主要依赖两种技术路线: Discord协议模拟方案 通过逆向工程分析Midjourney Bot在Discord平台上的通信协议,模拟用户操作流程: 1. 身份认证层:获取Discord用户token并维持会话状态 2. 指令转换层:将REST API请求转换为Discord消息格式 3. 消息解析层:从Bot回复中提取图片URL和生成状态 4. 结果分发层:将生成结果通过Webhook或长轮询返回客户端 典型Python实现示例: import discord from discord.ext import commands class MidjourneyClient: def __init

把 Whisper、Moonshine、SenseVoice 统统装进手机:sherpa-onnx 离线语音部署框架,GitHub 10.9K Star

把 Whisper、Moonshine、SenseVoice 统统装进手机:sherpa-onnx 离线语音部署框架,GitHub 10.9K Star

导读: 语音 AI 模型更新很快——Whisper、Moonshine、SenseVoice、FireRedASR、Paraformer,几乎每个月都有新模型发布。但对开发者来说,选好模型只是第一步,真正的工程挑战在后面:怎么把它跑在手机上?嵌入式设备上?浏览器里?怎么接入 NPU 加速?怎么在没有网络的环境下运行? sherpa-onnx 是 next-gen Kaldi 团队开源的语音推理部署框架(GitHub 10.9k stars,Apache 2.0 协议),它的定位很明确:将多种语音模型统一转成 ONNX 格式,部署到各类平台上,支持离线运行。覆盖 12 项语音功能、12 种编程语言、从服务器到嵌入式的多平台支持,最新版 v1.12.29 于

极致压缩:Whisper.cpp 量化版本清单与 ggml 格式模型下载

Whisper.cpp 量化模型下载指南 Whisper.cpp 是 OpenAI Whisper 语音识别模型的高效 C++ 实现,支持量化技术来减小模型尺寸,实现“极致压缩”。量化通过降低模型参数的精度(如从 32 位浮点数到 4 位整数)来减少存储和计算需求,同时保持合理的准确性。ggml 格式是一种轻量级模型格式,专为资源受限设备优化。以下信息基于 Whisper.cpp 官方 GitHub 仓库(真实可靠),我将逐步引导您获取量化版本清单和下载链接。 1. 量化版本清单 Whisper.cpp 支持多种量化级别,每种对应不同的压缩率和精度权衡。以下是常见量化版本清单(基于最新官方数据): * q4_0:4 位量化,极致压缩,模型尺寸最小,适合内存受限设备(如嵌入式系统)。精度损失较高。

Bug记录:vscode中copilot登录github时报错——尚未完成授权此扩展使用 GitHub 的操作。

Bug记录:vscode中copilot登录github时报错——尚未完成授权此扩展使用 GitHub 的操作。

尝试了很多网上的方法无果,还是选择寻求deepseek的帮助,如下: 在VS Code中遇到“尚未完成授权此扩展使用 GitHub 的操作”错误时,可以按照以下步骤解决: 1. 重新启动授权流程 * 在VS Code中,按下 Ctrl+Shift+P 打开命令面板。 * 输入 GitHub: Sign In 并选择该命令。 * 按照提示在浏览器中完成授权流程。如果浏览器未自动打开,手动访问显示的链接并输入提供的验证码。 2. 清除GitHub的旧授权 * 登录GitHub,进入 Settings → Applications → Authorized OAuth Apps。 * 找到并撤销与 Visual Studio Code 或 GitHub for VSCode 相关的授权。 * 返回VS Code,重新尝试登录。 3. 退出并清除VS