Stable Diffusion 秋叶大神2025最新整合一键安装包

Stable Diffusion 秋叶大神2025最新整合一键安装包

这段时间我在折腾 Stable Diffusion,期间试过很多安装方式。有手动安装的,也有别人做好的整合包。手动安装的方式对环境要求高,步骤也多,系统要装 Python,要装依赖,还要配好运行库,哪一步出错都要重新查资料,挺消耗时间。后来了解到秋叶大神做的整合一键安装包,这个版本省掉了很多折腾,对新手比较友好。

我自己把安装流程整理了一遍,又结合网上的信息,把一些需要注意的地方写下来,希望能帮到想尝试 Stable Diffusion 的人。


这里完整下载链接

在这里插入图片描述

秋叶整合包是什么

这个整合包属于别人已经帮你配好的版本,里面把 Stable Diffusion WebUI、模型管理、插件、运行环境都准备好了。下载之后按照提示解压,点一下启动脚本就能跑起来,不需要另外去折腾环境。

整合包里放的 WebUI 是常见的 AUTOMATIC1111 版本,所以大部分教程都能直接用。适合想直接出图、想先体验一下模型效果的人。


系统环境方面

我现在用的是 Windows 电脑,所以下面写的内容主要基于 Windows。
秋叶整合包一般都是针对 Windows 整理的,解压之后直接运行,不需要管理员安装,也不会改系统环境变量。

需要注意设备条件:

  • 显卡支持 CUDA 会更顺畅
  • 显卡显存越大,生成大图越稳定
  • 没有独显也能跑,但速度会慢

我用的是有独显的电脑,跑 txt2img 基本能正常运行。


下载方式和注意点

秋叶大神把安装包放在公开渠道,一般会提供网盘链接、夸克链接等。
文件比较大,下载的时候要耐心一点。

下载时建议注意版本号。秋叶整合包会 periodically 更新,有些版本加入新的插件,有些版本会修 bug。选择最新版本通常更省事。

下载完成后,建议把压缩包放在普通路径,比如 D 盘或 E 盘,不要放在中文路径,也不要放在桌面太深的目录。这样能避免脚本识别路径时出错。


解压和文件结构

把压缩包解压后,会看到主目录,里面包含:

  • webui
  • models
  • 环境文件
  • 启动脚本

结构比较清晰。
不用修改文件位置,也不需要先安装 Python。整合包里已经准备好了运行环境,用的都是独立目录,对系统没影响。


运行 WebUI 的方式

在主目录里会看到一个“启动 WebUI”的脚本文件(通常是 .bat)。
双击运行它,命令行窗口会自动加载环境。
等命令行显示链接,例如 http://127.0.0.1:7860,就可以在浏览器里打开界面。

我自己的经验是第一次启动会加载时间稍长,之后启动就快很多。


模型放在哪里

整合包将模型目录整理好了。常见路径是:

stable-diffusion-webui\models\Stable-diffusion 

如果你要添加新的模型,把 .ckpt 文件或者 .safetensors 文件放进这个目录就行。重新打开 WebUI 后,模型选择栏会自动出现。

例如常见的

  • chilloutmix
  • anything
  • 国风模型
  • 写真人模特的模型
    都可以放进去使用。

Lora 的路径会不同,大概在:

models\Lora 

VAE 的路径一般在:

models\VAE 

整合包目录结构都整理好,基本不需要改动。


常用功能的使用方法整理一下

为了让内容更有帮助,我把自己常用的几个功能写一下。

1. txt2img

输入提示词出图,这是最常用的功能。
常填的内容包括:

  • 正面提示词
  • 负面提示词
  • 分辨率
  • 采样方法
  • 步数
  • CFG 值

这些默认值一般都能用。
生成图像后可以立即保存,也能继续调整。

2. img2img

用一张图片作为基础再调整。
比如把原图风格换一下,替换人物,改背景,这些都用得上。
强度值可以调节变化程度,0.3~0.7 之间比较常用。

3. Lora 管理

整合包里带的插件可以管理 Lora,选择权重、合并、加载都会很方便。
使用 Lora 时只需要在提示词里写:

<lora:模型名:权重> 

权重 0.6 左右比较常见。

4. 控制图(ControlNet)

秋叶整合包有附带 ControlNet 插件。
常用功能包括:

  • 线稿
  • 姿态
  • 深度
  • 分割

把提示词结合 ControlNet,可以大幅提高可控性。
比如指定一个姿势生成人物,指定一个场景保持透视不变。


在这里插入图片描述

插件方面

整合包里常见插件有:

  • ControlNet
  • Tagger
  • 图片浏览插件
  • Prompt 工具
  • Lora 管理工具

这些插件的默认设置基本都能直接用,不需要提前配置。
如果有特别需要,也能添加其他插件,方式就是把插件文件放进 extensions 目录。


配置文件

如果想改默认值,可以修改根目录里的配置文件,比如运行参数、显存优化、线程数等。
新手阶段可以不用改。
如果遇到显存不足,可以在脚本里加上 --medvram--lowvram 参数。


常见问题

把网上容易遇到的问题摘一下,并整理成实际可用的建议。

1. 启动后闪退

可能是路径有中文、路径太长,改到简短路径一般可以解决。

2. 出图时显存不足

可以打开低显存模式,或把图片尺寸调低一些。

3. 控制图不生效

检查插件是否启用,确认使用的控制模型是否加载成功。

4. 模型不显示

确认模型放在正确目录,文件格式没有拼错。

5. 启动时提示端口占用

修改端口即可,--port 7861 这种方式可行。


适合谁用

秋叶整合包比较适合想先体验 Stable Diffusion,又不想折腾环境的人。
不论工作、画图、做封面、写自媒体内容,只要需要生成图片,都可以用这个工具快速出图。
学习模型、调风格、做二次元、做真人照片风格,也都能用。
整合包已经把复杂的步骤准备好,用户只需要关心出图和模型本身。


使用后的体感

我自己用秋叶整合包最明显的感受是省时间,少折腾。
之前手动安装,常常因为 Python 版本、Torch 版本、显卡驱动等问题耽误很多时间。整合包把这些都打包好了,只要能跑脚本就能出图。

生成的速度也比较稳定,和手动安装性能差不多。
模型加载速度也可以接受。
插件比较全,不需要自己再找。

对我个人来说,这种整合包比自己安装更适合长期使用,不用担心哪天更新导致环境崩掉。


Read more

【大模型应用篇】用 OpenClaw + 飞书打造 7x24 小时服务器运维机器人

【大模型应用篇】用 OpenClaw + 飞书打造 7x24 小时服务器运维机器人

前言 本文基于OpenClaw,也是最近超火的可在本地运行的AI Agent网关,记录从零搭建通过飞书对话管理服务器运维机器人的全过程。该机器人支持随时随地通过飞书查看服务器状态、检索日志、管理进程,其核心机制在于:由OpenClaw将聊天平台(飞书等)的消息路由至大模型,模型调用本地工具(如Shell、文件系统、浏览器)执行相应任务,最终将结果自动返回至飞书会话中,实现自动化运维交互。 架构概览 飞书 App (WebSocket 长连接)         ↕ OpenClaw Gateway (服务器上 systemd 常驻)         ↕ AI 模型 (DeepSeek v3.2/GLM 4.7)         ↕ 服务器 Shell (受白名单限制的命令执行) 核心组件: * OpenClaw Gateway:Agent 网关,管理会话、工具调用、渠道连接 * 飞书插件:通过

By Ne0inhk

OpenClaw 新手指南:从零开始的 AI 机器人搭建完全攻略

OpenClaw 新手指南:从零开始的 AI 机器人搭建完全攻略 想随时随地通过微信、飞书、Telegram 等平台与 AI 助手对话?OpenClaw 帮你实现。 为什么选择 OpenClaw? OpenClaw 是一个开源的自托管 AI 网关,让你可以在自己服务器上运行一个 central hub,连接所有聊天平台到强大的 AI 模型(如 Claude、GPT、Pi、Kimi 等)。 核心优势: * ✅ 数据完全掌控(自托管,隐私安全) * ✅ 多平台统一管理(一个网关服务所有渠道) * ✅ 无代码扩展(通过技能系统) * ✅ 24/7 可用(开机自启动) * ✅ 日志和记忆(支持长期对话) 10个核心技巧详解 技巧 1:快速安装与配置 适用场景:

By Ne0inhk
港大用AI视频生成技术让机器人拥有“透视眼“:首次实现超视野导航

港大用AI视频生成技术让机器人拥有“透视眼“:首次实现超视野导航

这项由香港大学研究团队主导的突破性研究于2026年2月发表在计算机视觉顶级期刊上,论文编号为arXiv:2602.05827v1。该研究首次将视频生成技术引入机器人导航领域,让机器人能够在看不见目标的情况下成功找到目的地,这在夜晚等复杂环境中表现尤为出色。 想象一下,当你在一个陌生的购物中心寻找洗手间时,即使看不到目标,你也能凭借经验和常识大概推断出它可能在哪个方向。现在,香港大学的研究团队成功让机器人也具备了这种"透视"能力。他们开发的SparseVideoNav系统,能让机器人仅凭简单的指令,就能在完全陌生的环境中找到远处看不见的目标。 传统的机器人导航就像让一个近视眼的人在没有眼镜的情况下找路,它们只能依靠当前看到的景象做决定,结果经常在死胡同里打转,或者在看不清远处目标时原地打圈。更麻烦的是,现有的机器人需要非常详细的步骤指令,比如"向前走三步,然后左转,再走两步,然后右转找到红色的椅子"。这种方式在实际生活中显然不现实,因为人类更习惯给出简单的指令,比如"去找个椅子坐下"。 研究团队发现,问题的根源在于现有的机器人"目光短浅"。它们在学习时只能看到未来4到8步的情况,

By Ne0inhk
飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程 * 一、背景 * 二、实现方案概览 * 三、操作步骤 * 前置准备 * 第一步:创建并进入Claude Code容器 * 配置Claude Code使用本地模型 * 测试Claude Code是否正常工作 * 第二步:安装Python依赖 * 第三步:获取飞书应用的凭证 * 第四步:编写并运行中间件脚本 * 脚本解释 * 运行脚本 * 第五步:在飞书中与机器人对话 * 常见问题 * 总结 一、背景 在日常开发中,我们经常需要快速查询代码问题、生成文档或执行简单的编程任务。如果有一款AI助手能随时响应,就像在电脑终端前一样,那该多方便!本教程将演示如何搭建一个飞书机器人,当你在手机飞书App上发送消息时,该消息会传递给运行在电脑上的Claude Code(一个智能编码助手),Claude Code处理后将结果回复到你的飞书会话中。 通过这个方案,你可以: * 在手机上随时向AI提问编程问题。 * 让AI帮你调试

By Ne0inhk