ComfyUI文生成AI视频最佳方式:AnimateDiff完整安装使用教程 – 幽络源

ComfyUI文生成AI视频最佳方式:AnimateDiff完整安装使用教程 – 幽络源

概述

本文讲述利用ComfyUI结合AnimateDiff进行本地AI视频生成,前面幽络源测试过利用LTX Video来进行AI生成视频,但发现LTX的局限性太大,只能使用LTX专用的模型,若是更换模型则几乎不可用,而使用AnimeteDiff生成视频的话,只要使用经过SD1.5微调的模型都可以使用。

注意!!:以下插件与模型幽络源这里已经整理到网盘链接了,可以一并下载使用=>https://pan.quark.cn/s/9ed5a605b145

如图

73bc21de-97cd-4494-9df8-4b5586ed070a

步骤1:下载安装AnimateDiff-Evolved插件

官网链接=>https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved

下载方式1:在 ComfyUI_windows_portable\ComfyUI\custom_nodes 目录中 执行如下命令下载

git clone https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved.git

下载方式2:手动下载压缩包,然后解压到custom_nodes中,去掉-main名称,如图

de00653c785a50f66a3e4cd63ea230c6

这个插件无需我们下载相关依赖/库

步骤2:下载ComfyUI-VideoHelperSuite插件

只要你在ComfyUI中使用视频的生成,这个插件几乎都会用到的,他的主要作用是合成视频

下载方式1:进入ComfyUI_windows_portable\ComfyUI\custom_nodes目录,然后cmd执行如下命令

git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite

下载方式2:直接浏览器进入https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite,手动下载压缩包,然后将其放入ComfyUI_windows_portable\ComfyUI\custom_nodes目录,解压并去掉目录名后的-main,如图

2c5f0f72-8389-4548-ae00-ec78e5525321

这个插件则需要我们下载相关的依赖/库了,CMD进入ComfyUI-VideoHelperSuite目录,利用ComfyUI自带的python为其下载依赖/库,幽络源这里使用绝对路径,命令如下

D:\ComfyUI_windows_portable\python_embeded\python.exe -m pip install -r requirements.txt

步骤3:下载AnimateDiff模型

进入huggingface官网=>https://huggingface.co/guoyww/animatediff/tree/main

下载mm_sd_v15_v2.ckpt,将其放入 ComfyUI_windows_portable\ComfyUI\models\animatediff_models目录中,如图

214adf94117ef039317b6b6a7007b4cc

步骤4:准备一个基于SD1.5微调的文生图模型

基于SD1.5的文生图模型就太多了,可以去civitai自行选择,但要注意的是一定得是基于SD1.5微调的兼容模型
幽络源这里使用的是一个二次元的动漫人物模型,本体也是基于SD1.5微调的,见上面网盘链接中的cardosAnime_v20.safetensors模型

步骤5:下载标准VAE

由于我们使用的是自己选择SD1.5模型,换句话说幽络源这里使用了标准的motion module + 非标准 的checkpoint ,那为了能让我们使用上自己想要使用的模型,这里的一个方案是更换标准VAE,官网=>https://huggingface.co/stabilityai/sd-vae-ft-mse-original/blob/main/vae-ft-mse-840000-ema-pruned.safetensors
下载并将其放在ComfyUI/models/vae/中,如图

8bcebc61fe91720b4817253c51985d9a

步骤6:开始进行AI视频生成

以上准备工作完成后,便是启动ComfyUI,然后创建节点工作流了,具体如下

6.1添加CheckPoint模型

如图,右键->添加节点->loaders->Load CheckPoint,然后选择我们的cardosAnime_v20.safetensors模型

9a6a3c41-2e0c-4070-8c61-a18353a31350

6.2添加文本编码器

右键->添加节点->conditioning->CLIP Text Encode (Prompt)

这个东西就是提示词,需要添加两个,一个作为正向提示词,一个作为负向提示词,然后连接到我们的CheckPoint的Clip输出节点,正向提示词就是你想要什么你就写什么描述,负向提示词就是你不希望生成神什么就写什么描述,如图

fd3c4318-250e-44f4-8e39-44e56dc3cbc9

6.3添加AnimateDiff Loader

如图,右键->添加节点->Animate Diff->①Gen1 nodes①->AnimateDiff Loader ①,将其Model连接到CheckPoint的输出model节点,将model_name切换为我们下载的mm_sd_v15_v2.ckpt,将beta_schedule切换为sqrt_linear(AnimateDiff)

e8543a17-ecc7-4de5-be95-64faa30fa1d1

6.4添加K采样器

如图,右键->添加节点->sampling->KSampler,注意其positive是正向提示词的输入节点,negative是负向提示词的输入节点,按照下图连接其提示词和model节点

ca242ac7-abe2-4a6d-9ac4-1372515efa61

6.6添加Latent Image节点

如图,右键->添加节点->Latent->Empty Latent Image,创建一个空Latent Image节点,连接到K采样器的Latent Image,此节点供我们决定图像的宽高,以及总共的帧数batch_size,需要注意的是目前幽络源这里教学的这套仅支持最大32帧率,也就是说最大可将batch_size修改为32

6551d2bb-a64a-4fdc-a8ae-b01515c22656

6.7创建VAE节点

如下图,右键->添加节点->Latent->VAE Decode,添加VAE解码节点

右键->添加节点->loaders->Load VAE,添加VAE加载节点

5fa96173-6ae9-4de8-9710-003fa9857996

将Load VAE切换为我们自己下载的标准VAE,然后根据如图连接节点

7f7ee444-1099-48aa-ab24-4d50c62c6f53

6.8添加Video Combine节点

Video Combine节点是一个视频合成的节点,如图右键->添加节点->Video Helper Suite->Video Combine,将其Images节点连接到VAE Decode的IMAGE输出节点,format用于切换保存格式

991a6480-5f1b-4b83-a599-2bb395cc87cb

6.9启动生成视频

在正向提示词节点中填充你想要的,负向提示词填充你不希望有的,然后启动即可,幽络源最终结果如下

a7e4cdd5f561fadbf7dd3bc288d52096

结语

以上是幽络源的“ComfyUI生成AI视频最佳方式 AnimateDiif”基础篇,如有疑问或感兴趣可通过下方名片加入我们交学习

Read more

OpenClaw 安装 + 接入飞书机器人完整教程

OpenClaw 安装 + 接入飞书机器人完整教程 OpenClaw 曾用名:ClawdBot → MoltBot → OpenClaw(同一软件,勿混淆) 适用系统:Windows 10/11 最后更新:2026年3月 一、什么是 OpenClaw? OpenClaw 是一款 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万颗。 与普通 AI 聊天机器人的核心区别: * 真正的执行能力:不只回答问题,能实际操作你的电脑 * 24/7 全天候待命:睡觉时也能主动完成任务 * 完全开源免费:数据完全掌控在自己手中 * 支持国内平台:飞书、钉钉等均已支持接入 二、安装前准备:安装 Node.js 建议提前手动安装

Chrome 开发者工具(DevTools)快速入门——前端必备技能

Chrome 开发者工具(DevTools)快速入门——前端必备技能

在前端开发中,Chrome 开发者工具(DevTools) 是我们排查问题、优化性能、理解浏览器行为最强大的助手之一。无论是想快速定位页面样式异常、分析接口请求,还是调试 JavaScript 逻辑,DevTools 都能提供直观高效的方式帮助我们“看清代码背后发生了什么”。 这篇笔记将带你快速入门,从最基本的面板功能到常用调试技巧,让你能在实战中灵活运用它,提升开发效率与问题解决能力。 1. 打开方式与放大缩小 1. 快捷键: * Windows/Linux:F12 或 Ctrl + Shift + I * macOS:Command + Option + I 1. 右键打开:在页面任意元素上右键 → “检查 (Inspect)” 2. 菜单打开:点击右上角 ⋮ → “更多工具” → “开发者工具” 在使用 Chrome 开发者工具时,可以通过 鼠标滚轮 快速调整界面缩放。

WebPShop插件完整指南:让Photoshop完美支持WebP图像格式

WebPShop插件完整指南:让Photoshop完美支持WebP图像格式 【免费下载链接】WebPShopPhotoshop plug-in for opening and saving WebP images 项目地址: https://gitcode.com/gh_mirrors/we/WebPShop 作为现代图像格式的领军者,WebP以其卓越的压缩效率和动画支持能力,正在逐步改变数字图像的处理方式。然而,专业设计师在使用Photoshop时常常面临一个尴尬的现实:原生不支持WebP格式。WebPShop插件应运而生,为Photoshop用户提供了完整的WebP格式解决方案。 🤔 为什么需要WebPShop插件? 痛点问题分析 * Photoshop原生无法打开.webp文件,导致工作流程中断 * 无法直接保存为WebP格式,必须依赖第三方转换工具 * 缺乏专业的压缩参数控制,无法优化图像质量与文件大小 * 动态WebP动画处理能力缺失,影响创意表达 解决方案概述 WebPShop插件通过开源方式,为Photoshop添加了完整的WebP格式支持。无论是

给独立开发者:一人即军团,用智能体协作平台同时搞定前端、后端和测试

ChatDev 2.0 (DevAll) 深度技术解析:零代码多智能体编排引擎的实现 1. 整体介绍 1.1 项目概况 ChatDev 2.0 (DevAll) 是由 OpenBMB 团队开源的通用多智能体编排平台。项目在 GitHub (OpenBMB/ChatDev) 上获得了社区的高度关注,其核心创新在于将多智能体协作(Multi-Agent)的研究成果工程化为一个配置驱动、可视化、可扩展的生产力工具。该平台旨在解决复杂任务自动化中,单一智能体能力有限、流程僵化的问题,通过定义智能体间的交互图(Workflow Graph),实现任务的分解、协作与归并。 1.2 核心问题与解决思路 面临的问题: 1. 智能体能力单一:单一LLM在处理复杂、多步骤任务时存在逻辑跳跃、遗忘上下文、缺乏专项技能等问题。 2. 流程编排复杂:传统的多智能体系统需要开发者手动编写大量的协调、通信和状态管理代码,