Stable Diffusion WebUI本地部署全步骤(含CUDA,cuDNN,Pytorch GPU版安装过程)(Win 11 + RTX5060)

部署SD WebUI前,先安装CUDA+cuDNN+Pytorch

电脑配置:

系统:windows 11

显卡:NVIDIA GeForce RTX 5060 Laptop GPU

内存:24G

下载版本:

CUDA:13.0

cuDNN:9.13.1

Pytorch:12.9

第一步:安装CUDA

步骤一:查看CUDA version

win+R输入cmd,在命令提示符窗口中输入nvidia-smi,查看CUDA Version

我的CUDA version 为13.0,所以我下载的版本为13.0的(也可以向下安装低版本的,我建议下载最新的版本)。
CUDA下载网址:https://developer.nvidia.com/cuda-toolkit-archive

本文以13.0的安装为例。

步骤二:下载CUDA安装包

打开网站后,选择13.0版本,点击箭头指向的位置。

跳转到下图页面

选择对应的选项,我的是win11系统,所以选择的11,如果你是win10系统,则选择10;

Installer Type可以是本地下载exe(local),也可以是exe(network),这里我选择的是exe(network),点击download即可

步骤三:运行安装包

双击运行

点“同意并继续”

选择自定义,然后点击下一步

点击下一步

这里的安装路径,可以放在C盘,也可以放在D盘,可以自定义路径,我是C盘空间不足,所以放到了D盘,路径选择好之后,点击下一步。

继续点击下一步

关闭

CUDA的安装完成

第二步:安装cuDNN

步骤一:下载cuDNN安装包

打开网址https://docs.nvidia.com/deeplearning/cudnn/backend/latest/index.html

点击cuDNN 9.13.1后下载安装包

双击运行安装包

下一步选择自定义,自定义路径选择D:\Program Files\NVIDIA\CUDNN\v9.13,然后下一步

点击关闭

cuDNN的安装完毕

第三步:安装Pytorch

步骤一:打开pytorch官网

打开pytorch官网:https://pytorch.org/get-started/locally/

下载stable版本的 CUDA 12.9
复制这串代码:pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129

步骤二:全局环境下安装pytorch

注意,这里要在全局环境下安装pytorch,不要在虚拟环境下安装pytorch。

按win+R,输入cmd打开命令提示符,

输入D: ,进入D盘

输入pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129

pytorch安装成功

第四步:本地部署Stable Diffusion WebUI

 按win+R,输入cmd打开命令提示符,

输入D: ,进入D盘

输入git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

按下Enter回车

在D盘根目录下就有一个stable-diffusion-webui文件夹

然后在项目中创建一个虚拟python环境:

cd stable-diffusion-webui //进入刚才下载项目 python -m venv .\venv //创建一个虚拟python环境

创建完成以后,我们进入到venv目录中的Scripts文件夹,执行activate:

cd .\venv\Scripts .\activate.bat

执行完成后,Windows命令行会自动清屏(之前执行的所有命令及输出结果清空),首会出现“(venv)”的字样 ,表示我们已经进入了虚拟环境。

开始安装项目的依赖项:

cd ../.. pip install -r requirements_versions.txt

等待安装完成后,运行项目:

.\webui-user.bat

还需要修改一下 webui-user.bat 这个文件, 设置PYTHON路径安装的路径/stable-diffusion-webui\venv\Scripts\python.exe:

set PYTHON=G:\StableDiffusion\stable-diffusion-webui\venv\Scripts\python.exe

后边再启动,直接双击执行webui-user.bat即可,可以发送桌面快捷方式到桌面,后面再启动,可以直接在桌面启动。

Read more

别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

别再把 AI 当聊天机器人了!手把手教你搭建“人机共生”的赛博办公室

目录 先说结论:10 分钟搭起“人机共管”的赛博办公室 一、整体部署与使用流程(先看全貌) 二、项目背景:DeskClaw 在解决什么问题? 三、环境准备:Docker Desktop 是唯一核心 步骤 1:安装 Docker Desktop 步骤 2:准备代码目录与项目文件 四、一键启动:Docker Compose 部署 步骤 1:启动服务 步骤 2:获取初始账号密码 步骤 3:浏览器访问平台 五、安装完成后的基本操作 六、实战示例:让 AI 同事每天帮你整理行业情报 场景设定 步骤 1:

UnityMCP+Claude+VSCode,构建最强AI游戏开发环境

UnityMCP+Claude+VSCode,构建最强AI游戏开发环境

* 前言 * 一、UnityMCP+Claude+VSCode,构建最强AI 游戏开发环境 * 1.1 介绍 * 1.2 使用说明及下载 * 二、VSCode配置 * 2.1 连接UnityMCP * 2.2 在VSCode中添加插件 * 2.3 Claude安装 * 2.4 VSCode MCP配置 * 2.5 使用Claude开发功能 * 三、相关问题 * 总结 前言 * 本篇文章来介绍使用 UnityMCP+Claude+VSCode,打造一个更智能、高效的游戏开发工作流。 * 借助MCP工具,Claude可以直接与Unity编辑器进行双向指令交互,开发者则可以直接使用自然语言进行Unity游戏开发。 * 这一组合充分利用了AI的代码生成、问题诊断与创意辅助能力,极大提升了Unity项目的开发效率与质量。 一、UnityMCP+Claude+

MiniMax AI 开源 MiniMax-M2.5

MiniMax AI 开源 MiniMax-M2.5

今天我们推出最新模型 MiniMax-M2.5。 该模型在数十万复杂现实场景中通过强化学习进行广泛训练,在编程、智能体工具使用与搜索、办公及一系列高经济价值任务上达到业界顶尖水平,其**SWE-Bench Verified通过率80.2%、Multi-SWE-Bench 51.3%、BrowseComp(含上下文管理)76.3%**的表现尤为亮眼。 经过高效推理与任务分解优化训练,M2.5执行复杂智能体任务时展现惊人速度,完成SWE-Bench Verified评估比M2.1快37%,与Claude Opus 4.6速度持平。 M2.5是首个让用户无需顾虑成本的尖端模型,真正实现"智能廉价如水电"的承诺。以每秒100 token的速度持续运行一小时仅需1美元。若降至每秒50 token,成本可低至0.3美元。我们希望M2.5的速度与成本优势能催生革命性智能体应用。 编程表现 在编程评估中,MiniMax-M2.5相较前代取得显著进步,达到业界顶尖水准。其多语言任务表现尤为突出。

构建基于Go语言的高性能命令行AI对话客户端:从环境部署到核心实现

构建基于Go语言的高性能命令行AI对话客户端:从环境部署到核心实现

前言 在现代软件开发领域,Go语言凭借其卓越的并发处理能力、静态类型安全以及高效的编译速度,已成为构建命令行工具(CLI)的首选语言之一。本文将详细阐述如何在Ubuntu Linux环境下部署Go开发环境,并结合蓝耘(Lanyun)提供的DeepSeek大模型API,手写一个支持多轮对话、上下文记忆的智能终端聊天工具。 一、 基础运行环境的准备与构建 任何上层应用的稳健运行都离不开坚实的底层系统支持。本次部署的目标环境为Ubuntu LTS系列(20.04/22.04/24.04),这些长期支持版本保证了系统库的稳定性与安全性。硬件层面,建议配置至少1GB的内存与5GB的磁盘空间,以满足编译器运行及依赖包缓存的需求。 1. 系统包索引更新与系统升级 在进行任何开发工具安装之前,首要任务是确保操作系统的软件包索引与现有软件处于最新状态。这不仅能修复已知的安全漏洞,还能避免因依赖库版本过旧导致的编译错误。 执行系统更新操作: sudoapt update &&sudoapt upgrade -y 该指令分为两部分:apt update 用于从软件源服务器获取最新的软件包列