Runway Gen-2 推出运动笔刷功能,实现图像局部动态化
AI 视频生成技术近期取得了显著进展。Runway 为其 AI 视频软件 Gen-2 推出了名为'运动笔刷'(Motion Brush)的新功能。该功能允许用户通过简单的涂抹操作,让静态图像中指定的目标对象动起来,且光影还原度极高。
运动笔刷的核心能力
顾名思义,用户只需使用笔刷工具在画面中的任意对象上进行涂抹,即可激活该区域的动态效果。这一功能不仅适用于人物,还能处理复杂的自然现象和物体运动。
典型应用场景
- 人物动作:静止的人物照片可以生成自然的头部转动或裙摆飘动效果。
- 流体与烟雾:瀑布、雾气等流动介质可以被赋予连贯的运动轨迹。
- 环境特效:未熄灭的烟圈、燃烧的篝火以及飞速移动的乌云等背景元素均可被动态化。
- 光影变化:除了物体运动,功能还支持改变画面的整体光影效果,增强视觉冲击力。
尽管部分演示视频保留了涂抹痕迹以展示操作过程,但 Runway 也展示了经过精细处理的版本,几乎看不出 AI 修饰的痕迹,模糊了照片与实拍视频的界限。
AI 视频生成的效率突破
除了 Runway 的功能更新,开源社区也在推动视频生成技术的普及。近期,基于 Stable Diffusion 的文生动画软件 Animatediff 结合最新研究 LCM-LORA 展现了惊人的速度提升。
LCM-LORA 技术解析
LCM(Latent Consistency Models)是基于 OpenAI 早期提出的'一致性模型'概念发展而来的一种图像生成新方法。其核心优势在于能够大幅减少生成高分辨率图片所需的采样步数。
清华大学与 Hugging Face 合作推出的 LCM-LORA 模型解决了 LCM 不兼容现有模型的问题。它兼容所有 Stable Diffusion 模型,使得出图速度得到显著提升。结合 Animatediff 软件,生成一段 16 帧的动画视频仅需约 7 秒钟。
目前,LCM-LORA 已在 Hugging Face 平台开源,这标志着 AI 视频生成正朝着更快速、更易用的方向发展。
技术影响与展望
这些技术进步表明,视频生成领域正迎来爆发式增长。对于内容创作者而言,这意味着制作成本的大幅降低和创作效率的提升。
对行业的影响
- 降低门槛:无需专业拍摄设备或复杂后期,普通用户即可生成高质量动态素材。
- 加速迭代:从构思到成片的周期缩短,有利于创意快速验证。
- 技术融合:扩散模型与一致性模型的结合,为实时渲染和交互式媒体提供了新的可能性。
未来挑战
尽管效果逼真,但如何保持长时间序列的一致性、避免伪影以及解决版权伦理问题仍是行业需要面对的挑战。随着技术的不断成熟,AI 视频生成有望成为数字内容生产的基础设施之一。
总体而言,Runway Motion Brush 与 LCM-LORA 等工具的涌现,正在重塑视频创作的边界,使'所想即所得'的愿景更接近现实。


