ComfyUI文生成AI视频最佳方式:AnimateDiff完整安装使用教程 – 幽络源

ComfyUI文生成AI视频最佳方式:AnimateDiff完整安装使用教程 – 幽络源

概述

本文讲述利用ComfyUI结合AnimateDiff进行本地AI视频生成,前面幽络源测试过利用LTX Video来进行AI生成视频,但发现LTX的局限性太大,只能使用LTX专用的模型,若是更换模型则几乎不可用,而使用AnimeteDiff生成视频的话,只要使用经过SD1.5微调的模型都可以使用。

注意!!:以下插件与模型幽络源这里已经整理到网盘链接了,可以一并下载使用=>https://pan.quark.cn/s/9ed5a605b145

如图

73bc21de-97cd-4494-9df8-4b5586ed070a

步骤1:下载安装AnimateDiff-Evolved插件

官网链接=>https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved

下载方式1:在 ComfyUI_windows_portable\ComfyUI\custom_nodes 目录中 执行如下命令下载

git clone https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved.git

下载方式2:手动下载压缩包,然后解压到custom_nodes中,去掉-main名称,如图

de00653c785a50f66a3e4cd63ea230c6

这个插件无需我们下载相关依赖/库

步骤2:下载ComfyUI-VideoHelperSuite插件

只要你在ComfyUI中使用视频的生成,这个插件几乎都会用到的,他的主要作用是合成视频

下载方式1:进入ComfyUI_windows_portable\ComfyUI\custom_nodes目录,然后cmd执行如下命令

git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite

下载方式2:直接浏览器进入https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite,手动下载压缩包,然后将其放入ComfyUI_windows_portable\ComfyUI\custom_nodes目录,解压并去掉目录名后的-main,如图

2c5f0f72-8389-4548-ae00-ec78e5525321

这个插件则需要我们下载相关的依赖/库了,CMD进入ComfyUI-VideoHelperSuite目录,利用ComfyUI自带的python为其下载依赖/库,幽络源这里使用绝对路径,命令如下

D:\ComfyUI_windows_portable\python_embeded\python.exe -m pip install -r requirements.txt

步骤3:下载AnimateDiff模型

进入huggingface官网=>https://huggingface.co/guoyww/animatediff/tree/main

下载mm_sd_v15_v2.ckpt,将其放入 ComfyUI_windows_portable\ComfyUI\models\animatediff_models目录中,如图

214adf94117ef039317b6b6a7007b4cc

步骤4:准备一个基于SD1.5微调的文生图模型

基于SD1.5的文生图模型就太多了,可以去civitai自行选择,但要注意的是一定得是基于SD1.5微调的兼容模型
幽络源这里使用的是一个二次元的动漫人物模型,本体也是基于SD1.5微调的,见上面网盘链接中的cardosAnime_v20.safetensors模型

步骤5:下载标准VAE

由于我们使用的是自己选择SD1.5模型,换句话说幽络源这里使用了标准的motion module + 非标准 的checkpoint ,那为了能让我们使用上自己想要使用的模型,这里的一个方案是更换标准VAE,官网=>https://huggingface.co/stabilityai/sd-vae-ft-mse-original/blob/main/vae-ft-mse-840000-ema-pruned.safetensors
下载并将其放在ComfyUI/models/vae/中,如图

8bcebc61fe91720b4817253c51985d9a

步骤6:开始进行AI视频生成

以上准备工作完成后,便是启动ComfyUI,然后创建节点工作流了,具体如下

6.1添加CheckPoint模型

如图,右键->添加节点->loaders->Load CheckPoint,然后选择我们的cardosAnime_v20.safetensors模型

9a6a3c41-2e0c-4070-8c61-a18353a31350

6.2添加文本编码器

右键->添加节点->conditioning->CLIP Text Encode (Prompt)

这个东西就是提示词,需要添加两个,一个作为正向提示词,一个作为负向提示词,然后连接到我们的CheckPoint的Clip输出节点,正向提示词就是你想要什么你就写什么描述,负向提示词就是你不希望生成神什么就写什么描述,如图

fd3c4318-250e-44f4-8e39-44e56dc3cbc9

6.3添加AnimateDiff Loader

如图,右键->添加节点->Animate Diff->①Gen1 nodes①->AnimateDiff Loader ①,将其Model连接到CheckPoint的输出model节点,将model_name切换为我们下载的mm_sd_v15_v2.ckpt,将beta_schedule切换为sqrt_linear(AnimateDiff)

e8543a17-ecc7-4de5-be95-64faa30fa1d1

6.4添加K采样器

如图,右键->添加节点->sampling->KSampler,注意其positive是正向提示词的输入节点,negative是负向提示词的输入节点,按照下图连接其提示词和model节点

ca242ac7-abe2-4a6d-9ac4-1372515efa61

6.6添加Latent Image节点

如图,右键->添加节点->Latent->Empty Latent Image,创建一个空Latent Image节点,连接到K采样器的Latent Image,此节点供我们决定图像的宽高,以及总共的帧数batch_size,需要注意的是目前幽络源这里教学的这套仅支持最大32帧率,也就是说最大可将batch_size修改为32

6551d2bb-a64a-4fdc-a8ae-b01515c22656

6.7创建VAE节点

如下图,右键->添加节点->Latent->VAE Decode,添加VAE解码节点

右键->添加节点->loaders->Load VAE,添加VAE加载节点

5fa96173-6ae9-4de8-9710-003fa9857996

将Load VAE切换为我们自己下载的标准VAE,然后根据如图连接节点

7f7ee444-1099-48aa-ab24-4d50c62c6f53

6.8添加Video Combine节点

Video Combine节点是一个视频合成的节点,如图右键->添加节点->Video Helper Suite->Video Combine,将其Images节点连接到VAE Decode的IMAGE输出节点,format用于切换保存格式

991a6480-5f1b-4b83-a599-2bb395cc87cb

6.9启动生成视频

在正向提示词节点中填充你想要的,负向提示词填充你不希望有的,然后启动即可,幽络源最终结果如下

a7e4cdd5f561fadbf7dd3bc288d52096

结语

以上是幽络源的“ComfyUI生成AI视频最佳方式 AnimateDiif”基础篇,如有疑问或感兴趣可通过下方名片加入我们交学习

Read more

愚人节最大“乌龙”:不是玩笑!Claude Code 51万行源码裸奔,AI独角兽栽在低级失误里

愚人节最大“乌龙”:不是玩笑!Claude Code 51万行源码裸奔,AI独角兽栽在低级失误里

4月1日愚人节,全网都在分辨真假段子、花式整活,但AI圈炸锅的Claude Code源码泄露事件,却半点玩笑成分都没有——这是一场由前端基础失误引发的史诗级技术事故,更是估值数百亿AI独角兽Anthropic,在全球开发者面前上演的大型“社死现场”。 3月31日,安全研究员Chaofan Shou在X平台曝出重磅消息:Anthropic官方npm包中,因漏删调试文件,直接把Claude Code的完整源码公之于众。消息发酵恰逢愚人节,无数人第一反应以为是恶搞,可事实狠狠打脸:51.2万行TypeScript代码、1900+源文件、40+功能模块,连同一堆未官宣的黑科技,全在网上“裸奔”了。 先划重点:这真不是愚人节彩蛋! 很多人第一反应:“今天4月1日,该不会是Anthropic搞的营销彩蛋吧?” 直接实锤:这是100%的真实事故,绝非策划。 1. 官方紧急止损:Anthropic第一时间下架泄露版本v2.1.88、删除npm包中的问题文件,还对GitHub上的镜像仓库发起DMCA下架投诉——若是彩蛋,完全没必要拼命阻止传播。 2. 二次翻同款车祸:

用好 AI 效率工具:普通人也能掌握的 3 个实用工作技巧

在当下,AI 工具早已不是程序员和专业人士的专属,而是每个普通人都能用来提升效率的 “外挂”。很多人觉得 AI 很复杂,要么不知道怎么用,要么只会简单聊天,其实只要掌握几个实用技巧,就能让 AI 真正帮我们节省时间、提高质量。本篇就以纯干货的形式,分享三个普通人立刻能用、上手就见效的 AI 效率方法。 很多人使用 AI 时最大的问题,是不会提需求。一句 “帮我写个文案”“帮我做个方案”,得到的结果往往空泛、通用,完全达不到使用预期。其实提升 AI 输出质量的核心,就是把指令说具体。一个完整的有效指令,通常包含角色、任务、要求、格式四个部分。比如让 AI 写工作总结,可以这样描述:“你是一名职场专员,帮我整理一份周工作总结,内容包含本周完成事项、遇到的问题、下周计划,语言简洁正式,分点列出,

【AI辅助编程】【Claude Code】----秒杀 Cursor!Claude Code 保姆级教程,从安装到实战全过程,一篇文章给你透

【AI辅助编程】【Claude Code】----秒杀 Cursor!Claude Code 保姆级教程,从安装到实战全过程,一篇文章给你透

文章目录 * 前言 * 一、基础概念解析, * 1.1、什么是Claude Code? * 1.2、Claude Code能干嘛? * 二、安装 Claude Code * 2.1、(方式一)基于node.js环境 * 2.2、(方式二)不依赖node.js环境,原生版(推荐) * 三、配置 * 3.1配置大模型端点和密钥 * 1.注册账号 (通过上面提供的连接注册) * 2.获取API Key * 3.配置cluade code 环境变量 * 4.测试配置: * 5.切换模型(非必要,可跳过) * 6.查看token用量

AI视频生成模型从无到有:构建、实现与调试完全指南

AI视频生成模型从无到有:构建、实现与调试完全指南

文章目录 * **引言:从理论到实践的跃迁** * **第一部分:理论基石——视频生成模型的核心思想** * **第二部分:开发环境搭建与工具链** * **第三部分:亲手构建一个简易视频生成模型** * **第四部分:系统调试与效果评估** * **第五部分:模型优化与进阶探索** * **第六部分:从玩具到应用——部署与展望** * **结语:你的创造之旅,刚刚开始** 引言:从理论到实践的跃迁 在人工智能内容生成(AIGC)浪潮中,视频生成正成为最具挑战性和想象力的前沿领域。从几秒的动图到理论上无限时长的电影级叙事,技术的边界正在被快速突破。然而,对于大多数开发者和研究者而言,前沿模型如Sora、SkyReels-V2或Wan看似高不可攀,其背后动辄千亿级的数据和庞大的算力需求让人望而却步。 本指南的核心目标,正是要打破这种认知壁垒。我将引导你从最基础的原理出发,亲自动手构建一个具备完整AI特性的视频生成模型。这个模型将遵循“简单但完整”的原则:它可能无法生成好莱坞大片,但会清晰地展现扩散模型如何将噪声转化为连贯的动态序列,以及如何通过注意力机制维