-->
MagicDance是一种新颖有效的方法,可以生成逼真的人类视频,实现生动的动作和面部表情转移,以及一致的2D卡通风格动画零调优生成。通过MagicDance,我们可以精确生成外观一致的结果,而原始的T2I模型(如稳定扩散和ControlNet)很难准确地保持主题身份信息。此外,我们提出的模块可以被视为原始T2I模型的扩展/插件,而不需要修改其预训练权重。
真实人类舞蹈视频生成
影视制作公司使用MagicDance生成逼真的人类舞蹈视频
动画工作室使用MagicDance实现2D卡通风格动画的零调优生成
个人视频编辑爱好者使用MagicDance进行动作和面部表情转移
发现更多类似的优质AI工具
Hallo2是一种基于潜在扩散生成模型的人像图像动画技术,通过音频驱动生成高分辨率、长时的视频。它通过引入多项设计改进,扩展了Hallo的功能,包括生成长时视频、4K分辨率视频,并增加了通过文本提示增强表情控制的能力。Hallo2的主要优点包括高分辨率输出、长时间的稳定性以及通过文本提示增强的控制性,这使得它在生成丰富多样的肖像动画内容方面具有显著优势。
DreamMesh4D是一个结合了网格表示与稀疏控制变形技术的新型框架,能够从单目视频中生成高质量的4D对象。该技术通过结合隐式神经辐射场(NeRF)或显式的高斯绘制作为底层表示,解决了传统方法在空间-时间一致性和表面纹理质量方面的挑战。DreamMesh4D利用现代3D动画流程的灵感,将高斯绘制绑定到三角网格表面,实现了纹理和网格顶点的可微优化。该框架开始于由单图像3D生成方法提供的粗糙网格,通过均匀采样稀疏点来构建变形图,以提高计算效率并提供额外的约束。通过两阶段学习,结合参考视图光度损失、得分蒸馏损失以及其他正则化损失,实现了静态表面高斯和网格顶点以及动态变形网络的学习。DreamMesh4D在渲染质量和空间-时间一致性方面优于以往的视频到4D生成方法,并且其基于网格的表示与现代几何流程兼容,展示了其在3D游戏和电影行业的潜力。
Inverse Painting 是一种基于扩散模型的方法,能够从一幅目标画作生成绘画过程的时间流逝视频。该技术通过训练学习真实艺术家的绘画过程,能够处理多种艺术风格,并生成类似人类艺术家的绘画过程视频。它结合了文本和区域理解,定义了一组绘画指令,并使用新颖的扩散基础渲染器更新画布。该技术不仅能够处理训练中有限的丙烯画风格,还能为广泛的艺术风格和流派提供合理的结果。
DepthFlow是一个高度可定制的视差着色器,用于动画化您的图像。它是一个免费且开源的ImmersityAI替代品,能够将图像转换成具有2.5D视差效果的视频。该工具拥有快速的渲染能力,支持多种后处理效果,如晕影、景深、镜头畸变等。它支持多种参数调整,能够创建灵活的运动效果,并且内置了多种预设动画。此外,它还支持视频编码导出,包括H264、HEVC、AV1等格式,并且提供了无需水印的用户体验。
Stable Video Portraits是一种创新的混合2D/3D生成方法,利用预训练的文本到图像模型(2D)和3D形态模型(3D)生成逼真的动态人脸视频。该技术通过人特定的微调,将一般2D稳定扩散模型提升到视频模型,通过提供时间序列的3D形态模型作为条件,并引入时间去噪过程,生成具有时间平滑性的人脸影像,可以编辑和变形为文本定义的名人形象,无需额外的测试时微调。该方法在定量和定性分析中均优于现有的单目头部化身方法。
PhysGen是一个创新的图像到视频生成方法,它能够将单张图片和输入条件(例如,对图片中物体施加的力和扭矩)转换成现实、物理上合理且时间上连贯的视频。该技术通过将基于模型的物理模拟与数据驱动的视频生成过程相结合,实现了在图像空间中的动态模拟。PhysGen的主要优点包括生成的视频在物理和外观上都显得逼真,并且可以精确控制,通过定量比较和全面的用户研究,展示了其在现有数据驱动的图像到视频生成工作中的优越性。
HelloMeme是一个集成了空间编织注意力的扩散模型,旨在将高保真和丰富的条件嵌入到图像生成过程中。该技术通过提取驱动视频中的每一帧特征,并将其作为输入到HMControlModule,从而生成视频。通过进一步优化Animatediff模块,提高了生成视频的连续性和保真度。此外,HelloMeme还支持通过ARKit面部混合形状控制生成的面部表情,以及基于SD1.5的Lora或Checkpoint,实现了框架的热插拔适配器,不会影响T2I模型的泛化能力。
Robust Dual Gaussian Splatting (DualGS) 是一种新型的基于高斯的体积视频表示方法,它通过优化关节高斯和皮肤高斯来捕捉复杂的人体表演,并实现鲁棒的跟踪和高保真渲染。该技术在SIGGRAPH Asia 2024上展示,能够实现在低端移动设备和VR头显上的实时渲染,提供用户友好和互动的体验。DualGS通过混合压缩策略,实现了高达120倍的压缩比,使得体积视频的存储和传输更加高效。
该产品是一个图像到视频的扩散模型,通过轻量级的微调技术,能够从一对关键帧生成具有连贯运动的连续视频序列。这种方法特别适用于需要在两个静态图像之间生成平滑过渡动画的场景,如动画制作、视频编辑等。它利用了大规模图像到视频扩散模型的强大能力,通过微调使其能够预测两个关键帧之间的视频,从而实现前向和后向的一致性。
Animate3D是一个创新的框架,用于为任何静态3D模型生成动画。它的核心理念包括两个主要部分:1) 提出一种新的多视图视频扩散模型(MV-VDM),该模型基于静态3D对象的多视图渲染,并在我们提供的大规模多视图视频数据集(MV-Video)上进行训练。2) 基于MV-VDM,引入了一个结合重建和4D得分蒸馏采样(4D-SDS)的框架,利用多视图视频扩散先验来为3D对象生成动画。Animate3D通过设计新的时空注意力模块来增强空间和时间一致性,并通过多视图渲染来保持静态3D模型的身份。此外,Animate3D还提出了一个有效的两阶段流程来为3D模型生成动画:首先从生成的多视图视频中直接重建运动,然后通过引入的4D-SDS来细化外观和运动。
EchoMimic是一个先进的人像图像动画模型,能够通过音频和选定的面部特征点单独或组合驱动生成逼真的肖像视频。它通过新颖的训练策略,解决了传统方法在音频驱动时可能的不稳定性以及面部关键点驱动可能导致的不自然结果。EchoMimic在多个公共数据集和自收集数据集上进行了全面比较,并在定量和定性评估中展现出了卓越的性能。
ControlNeXt是一个开源的图像和视频生成模型,它通过减少高达90%的可训练参数,实现了更快的收敛速度和卓越的效率。该项目支持多种控制信息形式,并且可以与LoRA技术结合使用,以改变风格并确保更稳定的生成效果。
VividDream是一项创新技术,能够从单一输入图像或文本提示生成具有环境动态的可探索4D场景。它首先将输入图像扩展为静态3D点云,然后使用视频扩散模型生成动画视频集合,并通过优化4D场景表示来实现一致性运动和沉浸式场景探索。这项技术为生成基于多样真实图像和文本提示的引人入胜的4D体验提供了可能。
Follow-Your-Emoji是一个基于扩散模型的人像动画框架,能够将目标表情序列动画化到参考人像上,同时保持人像身份的一致性、表情的传递、时间的连贯性和保真度。它通过采用表情感知标志和面部细粒度损失技术,显著提升了模型在控制自由风格人像表情方面的表现,包括真实人物、卡通、雕塑甚至动物。此外,它还通过简单有效的逐步生成策略,扩展到稳定的长期动画,增加了其潜在的应用价值。
ToonCrafter是一个开源的研究项目,专注于使用预训练的图像到视频扩散先验来插值两张卡通图像。该项目旨在积极影响AI驱动的视频生成领域,为用户提供创造视频的自由,但要求用户遵守当地法律并负责任地使用。
Lumina-T2X是一个先进的文本到任意模态生成框架,它能够将文本描述转换为生动的图像、动态视频、详细的多视图3D图像和合成语音。该框架采用基于流的大型扩散变换器(Flag-DiT),支持高达7亿参数,并能扩展序列长度至128,000个标记。Lumina-T2X集成了图像、视频、3D对象的多视图和语音频谱图到一个时空潜在标记空间中,可以生成任何分辨率、宽高比和时长的输出。