2025最新如何在本地部署 Stable Diffusion3.5超详细完整教程

2025最新如何在本地部署 Stable Diffusion3.5超详细完整教程

在本地部署 Stable Diffusion 3.5:让 AI 绘图更便捷

前言

随着人工智能的快速发展,图像生成技术日益成熟,Stable Diffusion 3.5 作为一款强大的 AI 绘图工具,广泛应用于设计师、创作者等人群的视觉内容生成。它能够通过文本提示生成高质量图像,且具备较高的可控性和细腻的生成效果。

然而,默认情况下,Stable Diffusion 3.5 仅能在局域网内运行,远程操作或者出门时调整参数、查看进度会受到限制。在本文中,我们将通过本地部署的方式,帮助您克服这一限制,实现更加灵活的使用。

提示:不同型号的 Stable Diffusion 对硬件要求有所不同。以 Large Turbo 版本为例,推荐配备至少 8GB 显存以保证流畅运行。
文章目录在本地部署 Stable Diffusion 3.5:让 AI 绘图更便捷前言1. 本地部署 ComfyUI环境准备步骤 1:下载 ComfyUI步骤 2:选择合适的脚本步骤 3:启动 ComfyUI步骤 4:设置中文语言2. 下载 Stable Diffusion 3.5 模型模型选择步骤 1:下载模型文件步骤 2:下载 Clip 编码器文件步骤 3:运行 ComfyUI 服务3. 演示文生图步骤 1:加载示例工作流步骤 2:设置模型步骤 3:输入提示词并生成图像总结

1. 本地部署 ComfyUI

环境准备

  • 操作系统:Windows 11 专业版
  • 显卡要求:至少 8GB 显存

步骤 1:下载 ComfyUI

访问 ComfyUI 的官方 GitHub 页面,下载最新版的免安装版:

打开 GitHub 页面后,找到免安装版并下载解压至本地目录。

ComfyUI GitHub 下载页面

步骤 2:选择合适的脚本

在解压后的文件夹中,您会看到 run_cpurun_nvidia_gpu 两个脚本。run_cpu 是通过 CPU 解码,而 run_nvidia_gpu 则是通过 NVIDIA 显卡加速,后者运行速度更快。

选择适合您硬件的脚本,双击运行。

ComfyUI 运行脚本

步骤 3:启动 ComfyUI

运行脚本后,打开浏览器并访问 http://127.0.0.1:8188,即可进入 ComfyUI 的控制界面。

ComfyUI 页面

默认界面是英文,我们接下来设置为中文,以便更好地进行操作。

步骤 4:设置中文语言

  1. 下载中文语言包:中文插件下载链接
  2. 将解压后的文件放入 ComfyUI 根目录下的 custom_nodes 文件夹中。
中文语言包配置
  1. 回到 ComfyUI,进入设置并选择中文语言。
ComfyUI 设置中文

至此,ComfyUI 界面已经切换为中文,操作更加直观。

2. 下载 Stable Diffusion 3.5 模型

模型选择

Stable Diffusion 3.5 系列有多个版本,本教程使用的是 Stable Diffusion 3.5 Large Turbo 版本。

  • Stable Diffusion 3.5 Large:适合需要高质量图像的专业用户,建议使用 16GB 以上显存。
  • Stable Diffusion 3.5 Large Turbo:速度更快,生成过程更高效,推荐 8GB 显存。
  • Stable Diffusion 3.5 Medium:较为轻量,适合消费级硬件。

点击以下链接下载 Large Turbo 版本模型文件:

步骤 1:下载模型文件

在下载页面找到 sd3.5_large_turbo.safetensors 文件,并将其保存到 ComfyUI 的 models/checkpoint 文件夹中。

模型下载

步骤 2:下载 Clip 编码器文件

接下来,下载以下 Clip 编码器文件并将其保存至 ComfyUI 的 models/clip 文件夹中:

Clip 编码器下载

步骤 3:运行 ComfyUI 服务

回到 ComfyUI 根目录,运行一键脚本启动服务。

3. 演示文生图

步骤 1:加载示例工作流

将下载的 SD3.5L_Turbo_example_workflow.json 文件拖入 ComfyUI 界面中。

加载工作流

步骤 2:设置模型

在左侧的 Clip 设置中,选择刚刚下载的模型。

设置模型

步骤 3:输入提示词并生成图像

在中间的 CLIP 文本编码器中输入提示词,点击右侧的“添加提示词队列”按钮。

生成图像

生成图像后,您就可以看到在本地成功运行的 Stable Diffusion 3.5 模型生成的图像,操作更加便捷。

总结

恭喜您!通过本教程,您已经成功在本地部署了 Stable Diffusion 3.5 模型,并搭建了自己的 AI 绘画工作站。以下是整个部署过程的总结:

  • 第一步:搭建工作台
    • 下载并解压 ComfyUI 免安装版。
    • 启动服务,安装中文插件,完成环境配置。
  • 第二步:安装模型
    • 下载并安装 Stable Diffusion 3.5 Large Turbo 模型及所需的 Clip 编码器。
    • 将模型文件准确放入 ComfyUI 对应文件夹。
  • 第三步:启动并测试
    • 重启 ComfyUI 服务,加载示例工作流。
    • 输入提示词并生成第一张图像。

您已成功完成本地部署,并可以开始探索更多的功能和高级工作流。如果您希望将其转换为公网地址,便于远程访问,建议参考相关教程进行配置。

感谢您跟随本教程完成部署,祝您的创作之旅愉快!

Read more

前端大文件分片上传实现与断点续传方案(含完整代码讲解)

在上传大文件(如视频、安装包、模型文件)时,直接上传容易出现以下问题: * 文件过大 → 浏览器/服务器容易超时 * 上传过程中断 → 重新上传浪费时间 * 网络波动 → 上传失败率高 因此,大文件分片上传 + 断点续传 + 秒传校验 是目前最通用、最稳定的解决方案。 本文将通过一段完整可运行的示例代码,详细讲解如何在前端实现分片上传、断点续传、服务端校验等关键功能。 ✨ 实现效果 * ✔ 自动切片(默认 5MB/片,可配置) * ✔ 查询已上传分片(断点续传) * ✔ 自动跳过已上传的片段 * ✔ 每片上传成功后重新校验 * ✔ 所有片段上传完成后自动触发合并 * ✔ 错误处理完善 📌 核心代码(uploadLargeFile) 以下代码就是本文的核心逻辑,也是你提供的代码版本,经过梳理解释后会更易理解: export async function uploadLargeFile({ file, fileId, id, chunkSize = 5 * 1024

Web 可访问性最佳实践:构建人人可用的前端界面

Web 可访问性最佳实践:构建人人可用的前端界面 代码如诗,包容如画。让我们用可访问性的理念,构建出人人都能使用的前端界面。 什么是 Web 可访问性? Web 可访问性(Web Accessibility)是指网站、工具和技术能够被所有人使用,包括那些有 disabilities 的人。这意味着无论用户的能力如何,他们都应该能够感知、理解、导航和与 Web 内容交互。 为什么 Web 可访问性很重要? 1. 法律要求:许多国家和地区都有法律法规要求网站必须具有可访问性。 2. 扩大用户群体:约 15% 的世界人口生活有某种形式的 disability,可访问性可以让更多人使用你的网站。 3. SEO 优化:搜索引擎爬虫依赖于可访问性良好的网站结构。 4. 更好的用户体验:可访问性改进通常会使所有用户受益,而不仅仅是那些有 disabilities 的用户。 5. 社会责任:

ESP32S3 CameraWebServer避坑指南:从代码烧录到网页访问的全流程解析

ESP32-S3 CameraWebServer 实战避坑:从零到一的图像流媒体搭建全解 最近在折腾合宙的ESP32-S3核心板,想用它配合摄像头做个简单的网络监控或者视频流demo。网上随手一搜,乐鑫官方的CameraWebServer示例看起来是最直接的入门路径。但真动手的时候才发现,从环境配置、代码烧录到最终在网页上看到清晰的图像,中间每一步都可能藏着几个不大不小的“坑”。这篇文章就是把我自己踩过的坑、以及后来找到的解决方案,系统地梳理出来。如果你也是刚接触ESP32-S3,手头有一块合宙的板子和一个OV2640摄像头,想快速跑通这个经典的Web服务器示例,那么接下来的内容应该能帮你省下不少折腾的时间。 我们的目标很明确:让ESP32-S3连接Wi-Fi,驱动OV2640摄像头采集图像,并建立一个可以通过浏览器访问的网页服务器,实时查看视频流或拍摄静态照片。整个过程涉及硬件连接、开发环境搭建、代码修改、固件烧录和网络调试多个环节,任何一个环节出错都可能导致最终失败。别担心,我们会逐一拆解。 1. 硬件准备与环境搭建:万事开头难 在敲下第一行代码之前,正确的硬件连接和稳定