Stable Diffusion WebUI本地部署全步骤(含CUDA,cuDNN,Pytorch GPU版安装过程)(Win 11 + RTX5060)

部署SD WebUI前,先安装CUDA+cuDNN+Pytorch

电脑配置:

系统:windows 11

显卡:NVIDIA GeForce RTX 5060 Laptop GPU

内存:24G

下载版本:

CUDA:13.0

cuDNN:9.13.1

Pytorch:12.9

第一步:安装CUDA

步骤一:查看CUDA version

win+R输入cmd,在命令提示符窗口中输入nvidia-smi,查看CUDA Version

我的CUDA version 为13.0,所以我下载的版本为13.0的(也可以向下安装低版本的,我建议下载最新的版本)。
CUDA下载网址:https://developer.nvidia.com/cuda-toolkit-archive

本文以13.0的安装为例。

步骤二:下载CUDA安装包

打开网站后,选择13.0版本,点击箭头指向的位置。

跳转到下图页面

选择对应的选项,我的是win11系统,所以选择的11,如果你是win10系统,则选择10;

Installer Type可以是本地下载exe(local),也可以是exe(network),这里我选择的是exe(network),点击download即可

步骤三:运行安装包

双击运行

点“同意并继续”

选择自定义,然后点击下一步

点击下一步

这里的安装路径,可以放在C盘,也可以放在D盘,可以自定义路径,我是C盘空间不足,所以放到了D盘,路径选择好之后,点击下一步。

继续点击下一步

关闭

CUDA的安装完成

第二步:安装cuDNN

步骤一:下载cuDNN安装包

打开网址https://docs.nvidia.com/deeplearning/cudnn/backend/latest/index.html

点击cuDNN 9.13.1后下载安装包

双击运行安装包

下一步选择自定义,自定义路径选择D:\Program Files\NVIDIA\CUDNN\v9.13,然后下一步

点击关闭

cuDNN的安装完毕

第三步:安装Pytorch

步骤一:打开pytorch官网

打开pytorch官网:https://pytorch.org/get-started/locally/

下载stable版本的 CUDA 12.9
复制这串代码:pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129

步骤二:全局环境下安装pytorch

注意,这里要在全局环境下安装pytorch,不要在虚拟环境下安装pytorch。

按win+R,输入cmd打开命令提示符,

输入D: ,进入D盘

输入pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129

pytorch安装成功

第四步:本地部署Stable Diffusion WebUI

 按win+R,输入cmd打开命令提示符,

输入D: ,进入D盘

输入git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

按下Enter回车

在D盘根目录下就有一个stable-diffusion-webui文件夹

然后在项目中创建一个虚拟python环境:

cd stable-diffusion-webui //进入刚才下载项目 python -m venv .\venv //创建一个虚拟python环境

创建完成以后,我们进入到venv目录中的Scripts文件夹,执行activate:

cd .\venv\Scripts .\activate.bat

执行完成后,Windows命令行会自动清屏(之前执行的所有命令及输出结果清空),首会出现“(venv)”的字样 ,表示我们已经进入了虚拟环境。

开始安装项目的依赖项:

cd ../.. pip install -r requirements_versions.txt

等待安装完成后,运行项目:

.\webui-user.bat

还需要修改一下 webui-user.bat 这个文件, 设置PYTHON路径安装的路径/stable-diffusion-webui\venv\Scripts\python.exe:

set PYTHON=G:\StableDiffusion\stable-diffusion-webui\venv\Scripts\python.exe

后边再启动,直接双击执行webui-user.bat即可,可以发送桌面快捷方式到桌面,后面再启动,可以直接在桌面启动。

Read more

我和 AI 聊了一晚上,第二天它说“你好,请问有什么可以帮你?“凌晨我的 AI 尽然悄悄把记忆清空了!——OpenClaw Session 完全生存指南:重置、压缩、剪枝、记忆一网打尽

凌晨4点,我的 AI 悄悄把记忆清空了——OpenClaw Session 避坑指南 摘要:用 OpenClaw 搭了个 AI 助手,聊得好的,第二天一早它就"失忆"了?本文从一个真实踩坑出发,系统拆解 OpenClaw 的 Session 机制——重置(Reset)、压缩(Compaction)、剪枝(Pruning)、记忆(Memory)、会话控制(Session Tool)——帮你彻底搞懂"对话为什么会消失"以及"怎么让 AI 记住你"。 🤯 踩坑现场 事情是这样的: 我用 OpenClaw

避坑大全:Llama-Factory环境配置中的10个常见雷区

避坑大全:Llama-Factory环境配置中的10个常见雷区 如果你正在尝试使用Llama-Factory进行大模型微调,却连续三天都在解决pip安装问题,那么这篇文章就是为你准备的。Llama-Factory是一个功能强大的大模型微调框架,支持多种主流开源模型,但在环境配置过程中,新手经常会踩到各种"雷区"。本文将分享10个最常见的环境配置问题及其解决方案,帮助你彻底避免环境冲突,快速开始大模型微调工作。 1. Python版本不兼容问题 Llama-Factory通常需要Python 3.8或更高版本,但很多用户会忽略这一点。 * 检查当前Python版本: bash python --version * 如果版本过低,建议使用conda创建新环境: bash conda create -n llama_factory python=3.10 conda activate llama_factory 注意:某些CUDA版本可能对Python版本有特定要求,建议先确定CUDA版本再选择Python版本。 2. CUDA与PyTorch版本不匹配 这是最常见的错

Whisper.cpp CUDA加速实战:让语音识别速度飙升7倍!

Whisper.cpp CUDA加速实战:让语音识别速度飙升7倍! 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 在语音识别技术快速发展的今天,OpenAI Whisper模型凭借其卓越的准确性和多语言支持能力,已成为行业标杆。然而,传统的CPU计算模式在处理长音频或大型模型时往往力不从心。whisper.cpp作为Whisper的C++实现,通过集成NVIDIA CUDA技术,为开发者提供了突破性的性能提升方案,让语音识别应用真正实现实时响应。 快速上手:环境配置与项目准备 系统环境检查清单 在开始配置前,请确认你的开发环境满足以下要求: 硬件配置: * NVIDIA GPU(计算能力≥3.5) * 8GB以上系统内存 * 充足的硬盘存储空间 软件依赖: * CUDA

输入AI绘画的用户评价,自动分类统计(满意,一般,不满意),输出评价分析报告和改进建议。

输入AI绘画的用户评价,自动分类统计(满意,一般,不满意),输出评价分析报告和改进建议。

这是将数据科学、人工智能与商业决策结合起来。下面我将为您提供一个完整的、基于Python的“AI绘画用户评价分析”程序。   项目概览:ArtCriticScope - AI绘画用户评价分析器   核心功能:用户提供一个包含AI绘画作品用户评价的CSV或文本文件,程序会自动分析每一条评价的情绪倾向,将其分类为“满意”、“一般”或“不满意”,并生成一份包含统计数据和可操作改进建议的分析报告,帮助产品团队快速定位问题,优化产品。   1. 实际应用场景与痛点   * 目标用户:AI绘画产品(如Midjourney, Stable Diffusion, DALL-E等)的创始人、产品经理、社区运营、研发团队。 * 场景描述:您领导着一个AI绘画产品的开发。每天,您的Discord频道、应用商店评论区、Reddit板块都会涌入大量用户反馈。您想知道用户对新上线的“风格迁移”功能到底满不满意,但人工阅读成千上万条评论是不现实的。 * 传统痛点:    1. 信息过载:评价数据量巨大,人工分析效率极低,且容易遗漏关键信息。    2.