当前位置:首页 > VideoJAM – Meta 推出增强视频生成模型运动连贯性的框架
VideoJAM – Meta 推出增强视频生成模型运动连贯性的框架
作者:AI下载 发布时间:2025-04-03

VideoJAM是什么

VideoJAM是Meta推出的,用在增强视频生成模型运动连贯性的框架。基于引入联合外观-运动表示,让模型在训练阶段同时学习预测视频的像素和运动信息,在推理阶段基于模型自身的运动预测作为动态引导信号,生成更连贯的运动。VideoJAM在训练目标中加入运动预测,在推理时采用Inner-Guidance机制,显著提升视频生成中的运动连贯性,同时保持视觉质量。VideoJAM具有通用性,能用在任何视频生成模型,无需修改训练数据或扩大模型规模,在多个基准测试中超越现有最先进模型,为视频生成技术的发展提供新的思路。

VideoJAM

VideoJAM的主要功能

提升运动连贯性:基于联合学习外观和运动,生成更自然、更连贯的运动,减少视频生成中的变形和物理错误。提高视觉质量:在提升运动连贯性的同时,优化生成视频的整体视觉质量,让视频看起来更真实。通用性:VideoJAM能用在任何视频生成模型,无需对训练数据或模型规模进行修改,具有广泛的适用性。动态引导机制:在推理阶段,用模型自身的运动预测作为动态引导信号,确保生成的视频在运动上更加合理和连贯。

VideoJAM的技术原理

联合外观-运动表示:训练阶段:VideoJAM在训练时,不仅预测视频的像素(外观),还预测视频的运动信息(如光流)。为此,它在模型的输入端添加了一个线性层,将视频和运动信息合并为一个联合表示;在输出端添加另一个线性层,从联合表示中提取运动预测。目标函数也被修改为同时优化外观和运动的预测。运动表示:VideoJAM使用光流作为运动表示,将光流转换为RGB视频,以便模型能够处理运动信息。动态引导机制(Inner-Guidance):在生成视频时,VideoJAM利用模型自身不断演化的运动预测作为动态引导信号。基于修改采样分布,引导生成过程朝着连贯运动的方向发展。这种机制确保了生成的视频在运动上更加合理和自然。通用性和适配性:VideoJAM的设计非常通用,只需在现有视频生成模型中添加两个线性层,并对目标函数进行少量修改即可。它不需要额外的训练数据或模型规模的扩展,可以轻松应用于各种视频生成模型。

VideoJAM的项目地址

项目官网:https://hila-chefer.github.io/videojam技术论文:https://hila-chefer.github.io/videojam-paper.github.io/VideoJAM_arxiv.pdf

VideoJAM的应用场景

娱乐与影视制作:生成创意视频、动画、特效,提升制作效率和视觉效果,适用于广告、科幻或动作视频等。游戏开发:生成游戏中的角色动作和特效动画,优化游戏性能,同时在游戏测试和开发阶段的快速原型制作。教育与培训:在军事、航空、医疗等领域生成模拟训练视频,帮助学员熟悉操作流程;也可用于在线教育,制作生动的教学视频。广告与营销:制作吸引人的广告视频和产品演示视频,用于社交媒体、电视广告等,提升品牌影响力和产品展示效果。社交媒体与内容创作:帮助用户快速生成有趣、高质量的视频内容,满足创作者的多样化需求,提升社交媒体的互动性。