Stable Diffusion WebUI本地部署全步骤(含CUDA,cuDNN,Pytorch GPU版安装过程)(Win 11 + RTX5060)

部署SD WebUI前,先安装CUDA+cuDNN+Pytorch

电脑配置:

系统:windows 11

显卡:NVIDIA GeForce RTX 5060 Laptop GPU

内存:24G

下载版本:

CUDA:13.0

cuDNN:9.13.1

Pytorch:12.9

第一步:安装CUDA

步骤一:查看CUDA version

win+R输入cmd,在命令提示符窗口中输入nvidia-smi,查看CUDA Version

我的CUDA version 为13.0,所以我下载的版本为13.0的(也可以向下安装低版本的,我建议下载最新的版本)。
CUDA下载网址:https://developer.nvidia.com/cuda-toolkit-archive

本文以13.0的安装为例。

步骤二:下载CUDA安装包

打开网站后,选择13.0版本,点击箭头指向的位置。

跳转到下图页面

选择对应的选项,我的是win11系统,所以选择的11,如果你是win10系统,则选择10;

Installer Type可以是本地下载exe(local),也可以是exe(network),这里我选择的是exe(network),点击download即可

步骤三:运行安装包

双击运行

点“同意并继续”

选择自定义,然后点击下一步

点击下一步

这里的安装路径,可以放在C盘,也可以放在D盘,可以自定义路径,我是C盘空间不足,所以放到了D盘,路径选择好之后,点击下一步。

继续点击下一步

关闭

CUDA的安装完成

第二步:安装cuDNN

步骤一:下载cuDNN安装包

打开网址https://docs.nvidia.com/deeplearning/cudnn/backend/latest/index.html

点击cuDNN 9.13.1后下载安装包

双击运行安装包

下一步选择自定义,自定义路径选择D:\Program Files\NVIDIA\CUDNN\v9.13,然后下一步

点击关闭

cuDNN的安装完毕

第三步:安装Pytorch

步骤一:打开pytorch官网

打开pytorch官网:https://pytorch.org/get-started/locally/

下载stable版本的 CUDA 12.9
复制这串代码:pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129

步骤二:全局环境下安装pytorch

注意,这里要在全局环境下安装pytorch,不要在虚拟环境下安装pytorch。

按win+R,输入cmd打开命令提示符,

输入D: ,进入D盘

输入pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129

pytorch安装成功

第四步:本地部署Stable Diffusion WebUI

 按win+R,输入cmd打开命令提示符,

输入D: ,进入D盘

输入git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

按下Enter回车

在D盘根目录下就有一个stable-diffusion-webui文件夹

然后在项目中创建一个虚拟python环境:

cd stable-diffusion-webui //进入刚才下载项目 python -m venv .\venv //创建一个虚拟python环境

创建完成以后,我们进入到venv目录中的Scripts文件夹,执行activate:

cd .\venv\Scripts .\activate.bat

执行完成后,Windows命令行会自动清屏(之前执行的所有命令及输出结果清空),首会出现“(venv)”的字样 ,表示我们已经进入了虚拟环境。

开始安装项目的依赖项:

cd ../.. pip install -r requirements_versions.txt

等待安装完成后,运行项目:

.\webui-user.bat

还需要修改一下 webui-user.bat 这个文件, 设置PYTHON路径安装的路径/stable-diffusion-webui\venv\Scripts\python.exe:

set PYTHON=G:\StableDiffusion\stable-diffusion-webui\venv\Scripts\python.exe

后边再启动,直接双击执行webui-user.bat即可,可以发送桌面快捷方式到桌面,后面再启动,可以直接在桌面启动。

Read more

【TRAE】AI 编程:颠覆全栈开发,基于 TRAE AI 编程完成 Vue 3 + Node.js + MySQL 企业级项目实战,从环境搭建到部署上线

【TRAE】AI 编程:颠覆全栈开发,基于 TRAE AI 编程完成 Vue 3 + Node.js + MySQL 企业级项目实战,从环境搭建到部署上线

目录 一、TRAE 三大智能体简介 (1)三大智能体核心区别 (2)三大智能体适用场景 ① @Chat 智能体:“结对编程”伙伴 ② @Builder 智能体:你的“原型加速器” ③ @Builder with MCP:你的“全栈交付引擎” (3)实战场景流程示例:构建一个 “用户管理中心” 二、@Builder with MCP 智能体(全栈应用) (1)核心能力 ① 外部系统连接与操作 ② 全栈应用架构设计 ③ 真实数据生命周期管理 ④ 生产就绪配置与部署 (2)高效使用 @Builder with MCP 的黄金法则 ① 法则一:始于终——蓝图描绘法则 ② 法则二:契约先行——接口驱动法则 ③ 法则三:

怎么导出AI聊天记录

怎么导出AI聊天记录

怎么导出 AI 聊天记录?一篇给重度 AI 用户的实用指南 随着 ChatGPT、Claude、Gemini 等大模型逐渐进入日常工作流,越来越多的人开始把 AI 当作第二大脑: 写代码、写文档、做方案、查资料、头脑风暴、甚至项目推进记录,都在聊天窗口里完成。 但很多人用久了才意识到一个问题: 这些极有价值的对话内容,怎么导出来?怎么沉淀?怎么复用? 如果你也有这些困扰: * 想把一段高质量对话整理成博客 / 文档 * 想把 AI 生成的方案导出给同事 * 想保存历史对话做知识沉淀 * 想把对话喂给自己的知识库 / 笔记系统 * 想做 AI 工作流归档,而不是散落在网页里 那这篇文章,会帮你系统梳理目前可行的方案。 一、为什么「导出聊天记录」变得越来越重要? 过去我们把知识沉淀在: * Markdown 文档 * Notion / 飞书文档

手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

手把手教你 Openclaw 在 Mac 上本地化部署,保姆级教程!接入飞书打造私人 AI 助手

AppOS:始于 Mac,却远不止于 Mac。跟随 AppOS一起探索更广阔的 AI 数字生活。 OpenClaw 是 Moltbot/Clawdbot 的最新正式名称。经过版本迭代与改名后,2026年统一以「OpenClaw」作为官方名称,核心定位是通过自然语言指令,替代人工完成流程化、重复性工作,无需用户掌握编程技能,适配多场景自动化需求。 该项目经历了多次更名,Clawdbot → Moltbot → OpenClaw(当前名称) # OpenClaw 是什么? OpenClaw 是一个开源的个人 AI 助手平台。 简单来说,它是一个可以将你自己的 AI 助手接入你已经在用的即时通讯工具(Telegram、WhatsApp、飞书等)的系统。你可以自己挑选 AI 模型进行连接,添加各种工具和技能(如飞书等),构建专属工作流。说白了如果应用的够好,它就是一个能帮你干活的“

【2026必看 AI智能体】零基础Coze平台使用教程

【2026必看 AI智能体】零基础Coze平台使用教程

目录 一、Coze智能体实战初体验 1.1 写提示词 1.2 预览智能体 1.3 发布智能体 二、Coze入门 2.1 大语言模型LLM配置 生成多样性-temperature Top P 重复性语句惩罚 携带上下文轮数 最大回复长度 2.2 插件 什么是插件? 插件使用 三、智能体之知识(RAG-高考志愿填报) 3.1 智能体提示词 3.2 知识之文本 3.3 知识之表格 3.4 知识之图片 3.5 如何管理本地知识库 四、Coze记忆-对话体验 4.1