-->
共找到 45 个AI工具
点击任意工具查看详细信息
Hallo2是一种基于潜在扩散生成模型的人像图像动画技术,通过音频驱动生成高分辨率、长时的视频。它通过引入多项设计改进,扩展了Hallo的功能,包括生成长时视频、4K分辨率视频,并增加了通过文本提示增强表情控制的能力。Hallo2的主要优点包括高分辨率输出、长时间的稳定性以及通过文本提示增强的控制性,这使得它在生成丰富多样的肖像动画内容方面具有显著优势。
DreamMesh4D是一个结合了网格表示与稀疏控制变形技术的新型框架,能够从单目视频中生成高质量的4D对象。该技术通过结合隐式神经辐射场(NeRF)或显式的高斯绘制作为底层表示,解决了传统方法在空间-时间一致性和表面纹理质量方面的挑战。DreamMesh4D利用现代3D动画流程的灵感,将高斯绘制绑定到三角网格表面,实现了纹理和网格顶点的可微优化。该框架开始于由单图像3D生成方法提供的粗糙网格,通过均匀采样稀疏点来构建变形图,以提高计算效率并提供额外的约束。通过两阶段学习,结合参考视图光度损失、得分蒸馏损失以及其他正则化损失,实现了静态表面高斯和网格顶点以及动态变形网络的学习。DreamMesh4D在渲染质量和空间-时间一致性方面优于以往的视频到4D生成方法,并且其基于网格的表示与现代几何流程兼容,展示了其在3D游戏和电影行业的潜力。
Inverse Painting 是一种基于扩散模型的方法,能够从一幅目标画作生成绘画过程的时间流逝视频。该技术通过训练学习真实艺术家的绘画过程,能够处理多种艺术风格,并生成类似人类艺术家的绘画过程视频。它结合了文本和区域理解,定义了一组绘画指令,并使用新颖的扩散基础渲染器更新画布。该技术不仅能够处理训练中有限的丙烯画风格,还能为广泛的艺术风格和流派提供合理的结果。
DepthFlow是一个高度可定制的视差着色器,用于动画化您的图像。它是一个免费且开源的ImmersityAI替代品,能够将图像转换成具有2.5D视差效果的视频。该工具拥有快速的渲染能力,支持多种后处理效果,如晕影、景深、镜头畸变等。它支持多种参数调整,能够创建灵活的运动效果,并且内置了多种预设动画。此外,它还支持视频编码导出,包括H264、HEVC、AV1等格式,并且提供了无需水印的用户体验。
Stable Video Portraits是一种创新的混合2D/3D生成方法,利用预训练的文本到图像模型(2D)和3D形态模型(3D)生成逼真的动态人脸视频。该技术通过人特定的微调,将一般2D稳定扩散模型提升到视频模型,通过提供时间序列的3D形态模型作为条件,并引入时间去噪过程,生成具有时间平滑性的人脸影像,可以编辑和变形为文本定义的名人形象,无需额外的测试时微调。该方法在定量和定性分析中均优于现有的单目头部化身方法。
PhysGen是一个创新的图像到视频生成方法,它能够将单张图片和输入条件(例如,对图片中物体施加的力和扭矩)转换成现实、物理上合理且时间上连贯的视频。该技术通过将基于模型的物理模拟与数据驱动的视频生成过程相结合,实现了在图像空间中的动态模拟。PhysGen的主要优点包括生成的视频在物理和外观上都显得逼真,并且可以精确控制,通过定量比较和全面的用户研究,展示了其在现有数据驱动的图像到视频生成工作中的优越性。
HelloMeme是一个集成了空间编织注意力的扩散模型,旨在将高保真和丰富的条件嵌入到图像生成过程中。该技术通过提取驱动视频中的每一帧特征,并将其作为输入到HMControlModule,从而生成视频。通过进一步优化Animatediff模块,提高了生成视频的连续性和保真度。此外,HelloMeme还支持通过ARKit面部混合形状控制生成的面部表情,以及基于SD1.5的Lora或Checkpoint,实现了框架的热插拔适配器,不会影响T2I模型的泛化能力。
Robust Dual Gaussian Splatting (DualGS) 是一种新型的基于高斯的体积视频表示方法,它通过优化关节高斯和皮肤高斯来捕捉复杂的人体表演,并实现鲁棒的跟踪和高保真渲染。该技术在SIGGRAPH Asia 2024上展示,能够实现在低端移动设备和VR头显上的实时渲染,提供用户友好和互动的体验。DualGS通过混合压缩策略,实现了高达120倍的压缩比,使得体积视频的存储和传输更加高效。
该产品是一个图像到视频的扩散模型,通过轻量级的微调技术,能够从一对关键帧生成具有连贯运动的连续视频序列。这种方法特别适用于需要在两个静态图像之间生成平滑过渡动画的场景,如动画制作、视频编辑等。它利用了大规模图像到视频扩散模型的强大能力,通过微调使其能够预测两个关键帧之间的视频,从而实现前向和后向的一致性。
Animate3D是一个创新的框架,用于为任何静态3D模型生成动画。它的核心理念包括两个主要部分:1) 提出一种新的多视图视频扩散模型(MV-VDM),该模型基于静态3D对象的多视图渲染,并在我们提供的大规模多视图视频数据集(MV-Video)上进行训练。2) 基于MV-VDM,引入了一个结合重建和4D得分蒸馏采样(4D-SDS)的框架,利用多视图视频扩散先验来为3D对象生成动画。Animate3D通过设计新的时空注意力模块来增强空间和时间一致性,并通过多视图渲染来保持静态3D模型的身份。此外,Animate3D还提出了一个有效的两阶段流程来为3D模型生成动画:首先从生成的多视图视频中直接重建运动,然后通过引入的4D-SDS来细化外观和运动。
EchoMimic是一个先进的人像图像动画模型,能够通过音频和选定的面部特征点单独或组合驱动生成逼真的肖像视频。它通过新颖的训练策略,解决了传统方法在音频驱动时可能的不稳定性以及面部关键点驱动可能导致的不自然结果。EchoMimic在多个公共数据集和自收集数据集上进行了全面比较,并在定量和定性评估中展现出了卓越的性能。
ControlNeXt是一个开源的图像和视频生成模型,它通过减少高达90%的可训练参数,实现了更快的收敛速度和卓越的效率。该项目支持多种控制信息形式,并且可以与LoRA技术结合使用,以改变风格并确保更稳定的生成效果。
VividDream是一项创新技术,能够从单一输入图像或文本提示生成具有环境动态的可探索4D场景。它首先将输入图像扩展为静态3D点云,然后使用视频扩散模型生成动画视频集合,并通过优化4D场景表示来实现一致性运动和沉浸式场景探索。这项技术为生成基于多样真实图像和文本提示的引人入胜的4D体验提供了可能。
Follow-Your-Emoji是一个基于扩散模型的人像动画框架,能够将目标表情序列动画化到参考人像上,同时保持人像身份的一致性、表情的传递、时间的连贯性和保真度。它通过采用表情感知标志和面部细粒度损失技术,显著提升了模型在控制自由风格人像表情方面的表现,包括真实人物、卡通、雕塑甚至动物。此外,它还通过简单有效的逐步生成策略,扩展到稳定的长期动画,增加了其潜在的应用价值。
ToonCrafter是一个开源的研究项目,专注于使用预训练的图像到视频扩散先验来插值两张卡通图像。该项目旨在积极影响AI驱动的视频生成领域,为用户提供创造视频的自由,但要求用户遵守当地法律并负责任地使用。
Lumina-T2X是一个先进的文本到任意模态生成框架,它能够将文本描述转换为生动的图像、动态视频、详细的多视图3D图像和合成语音。该框架采用基于流的大型扩散变换器(Flag-DiT),支持高达7亿参数,并能扩展序列长度至128,000个标记。Lumina-T2X集成了图像、视频、3D对象的多视图和语音频谱图到一个时空潜在标记空间中,可以生成任何分辨率、宽高比和时长的输出。
StoryDiffusion 是一个开源的图像和视频生成模型,它通过一致自注意力机制和运动预测器,能够生成连贯的长序列图像和视频。这个模型的主要优点在于它能够生成具有角色一致性的图像,并且可以扩展到视频生成,为用户提供了一个创造长视频的新方法。该模型对AI驱动的图像和视频生成领域有积极的影响,并且鼓励用户负责任地使用该工具。
PhysDreamer是一个基于物理的方法,它通过利用视频生成模型学习到的对象动力学先验,为静态3D对象赋予交互式动力学。这种方法允许在缺乏真实物体物理属性数据的情况下,模拟出对新颖交互(如外力或代理操作)的真实反应。PhysDreamer通过用户研究评估合成交互的真实性,推动了更吸引人和真实的虚拟体验的发展。
SC-GS是一种新型表示技术,将动态场景的运动和外观分别用稀疏控制点和密集高斯函数表示。它使用少量控制点学习紧凑的6自由度变换基,这些基可通过插值权重在局部插值,得到3D高斯函数的运动场。它采用变形MLP预测每个控制点的时变6自由度变换,降低学习复杂度,增强学习能力,实现时空连贯的运动模式。同时联合学习3D高斯函数、控制点的规范空间位置和变形MLP,重建3D场景的外观、几何和动态。在训练过程中,控制点的位置和数量会自适应调整以适应不同区域的运动复杂度,并采用尽可能刚性的损失函数强制运动的空间连续性和局部刚性。由于运动表示的显式稀疏性和外观分离,该方法实现了用户控制的运动编辑,同时保留高保真度外观。大量实验表明,该方法在新视图合成和高速渲染方面优于现有方法,并支持新的保留外观的运动编辑应用。
PhysAvatar是一个结合逆向渲染和逆向物理的创新框架,可以从多视角视频数据中自动估计人体形状、外表以及服装的物理参数。它采用网格对齐的4D高斯时空网格跟踪技术和基于物理的逆向渲染器来估计内在的材料属性。PhysAvatar集成了物理模拟器,使用基于梯度的优化方法以原理性的方式估计服装的物理参数。这些创新能力使PhysAvatar能够在训练数据之外的运动和照明条件下,渲染出高质量的穿着宽松衣服的新视角头像。
SurMo是一种新的动态人体渲染范式,通过联合建模时间运动动力学和人体外观,在一个统一的框架中实现高保真的人体渲染。该方法采用基于表面的三平面表示法高效编码人体运动,并设计了物理运动解码模块和4D外观解码模块,能够合成时变的人体外观效果,如衣服皱褶、运动阴影等。相比于现有方法,SurMo在定量和定性渲染指标上都有显著提升。
CameraCtrl 致力于为文本生成视频模型提供精准相机姿态控制,通过训练相机编码器实现参数化相机轨迹,从而实现视频生成过程中的相机控制。产品通过综合研究各种数据集的效果,证明视频具有多样的相机分布和相似外观可以增强可控性和泛化能力。实验证明 CameraCtrl 在实现精确、领域自适应的相机控制方面非常有效,是从文本和相机姿态输入实现动态、定制视频叙事的重要进展。
NUWA是由微软开发的一系列研究项目,包括NUWA、NUWA-Infinity、NUWA-LIP、Learning 3D Photography Videos和NUWA-XL。这些项目涉及视觉合成的预训练模型,能够生成或操纵视觉数据,如图像和视频,以执行多种视觉合成任务。
Motion-I2V是一种全新的框架,用于实现一致且可控的图像到视频生成(I2V)。与以往直接学习复杂图像到视频映射的方法不同,Motion-I2V将I2V分解为两个阶段,并采用显式运动建模。在第一阶段,我们提出了基于扩散的运动场预测器,专注于推断参考图像像素的轨迹。在第二阶段,我们提出了增强的运动增强时间注意力,以增强视频潜在扩散模型中有限的一维时间注意力。该模块可以在第一阶段预测的轨迹的指导下,有效地将参考图像特征传播到合成帧。与现有方法相比,Motion-I2V即使在存在大运动和视角变化的情况下,也能生成更一致的视频。通过为第一阶段训练稀疏轨迹控制网络,Motion-I2V可以支持用户精确控制运动轨迹和运动区域,具有稀疏轨迹和区域注释的控制能力。这比仅依赖文本说明更可控。此外,Motion-I2V的第二阶段自然地支持零样本视频到视频转换。定性和定量比较表明,Motion-I2V在一致且可控的图像到视频生成方面优于先前的方法。
UniVG是一款统一多模态视频生成系统,能够处理多种视频生成任务,包括文本和图像模态。通过引入多条件交叉注意力和偏置高斯噪声,实现了高自由度和低自由度视频生成。在公共学术基准MSR-VTT上实现了最低的Fr'echet视频距离(FVD),超越了当前开源方法在人类评估上的表现,并与当前闭源方法Gen2不相上下。
本论文提出了一种基于扩散先验的动态视角合成方法,用于从单目视频中生成动态场景的新视角。该方法通过对视频帧进行微调和知识蒸馏,实现了几何一致性和场景一致性。论文通过定性和定量实验评估了方法的有效性和鲁棒性,证明了该方法在复杂场景下的优势。
DragNUWA是一款视频生成工具,能够通过直接操作背景或图像,将动作转化为摄像机运动或目标物体运动,生成对应的视频。DragNUWA 1.5基于稳定视频扩散技术,可根据特定路径使图像动起来。DragNUWA 1.0利用文字、图像和轨迹作为三个重要的控制因素,从语义、空间和时间上促进高度可控的视频生成。用户可通过git克隆仓库、下载预训练模型,并在桌面端进行图像拖拽生成动画。
Audio to Photoreal Embodiment是一个生成全身照片级人形化身的框架。它根据对话动态生成面部、身体和手部的多种姿势动作。其方法的关键在于通过将向量量化的样本多样性与扩散所获得的高频细节相结合,生成更具动态和表现力的动作。通过高度逼真的人形化身可视化生成的动作,能够表达出姿势中的重要细微差别(例如嘲笑和傲慢)。为了促进这一研究方向,我们引入了一种首次亮相的多视图对话数据集,可以进行照片级重建。实验证明,我们的模型生成了合适且多样化的动作,表现优于扩散和仅向量量化的方法。此外,我们的感知评估突出了在准确评估对话姿势中的微妙动作细节方面,照片级真实感(与网格)的重要性。代码和数据集可在线获取。
Human101是一个快速从单视图重建人体的框架。它能够在100秒内训练3D高斯模型,并以60FPS以上渲染1024分辨率的图像,而无需预先存储每帧的高斯属性。Human101管道如下:首先,从单视图视频中提取2D人体姿态。然后,利用姿态驱动3D模拟器生成匹配的3D骨架动画。最后,基于动画构建时间相关的3D高斯模型,进行实时渲染。
VOODOO 3D是一种高保真的3D感知一次性头部重现技术。我们的方法将驱动者的表情转移到源头,并为全息显示产生视图一致的渲染。该方法基于完全体积神经解缠框架,用于源外观和驱动表情的3D感知一次性头部重现方法。我们的方法实时性强,产生的输出高保真且视图一致,适用于基于全息显示的3D远程会议系统。我们在各种数据集上展示了最先进的性能,并展示了对高度具有挑战性和多样化主题的高质量3D感知头部重现,包括非正面头部姿势和源头和驱动方的复杂表情。
DreaMoving是一个基于扩散模型的可控制视频生成框架,用于生成高质量的定制人类舞蹈视频。通过给定目标身份和姿势序列,DreaMoving可以生成一个目标身份的视频,驱动姿势序列在任何地方跳舞。为此,我们提出了一个视频控制网络来进行运动控制,以及一个内容导引器来保留身份信息。该模型易于使用,并可适应大多数风格化扩散模型以生成多样化的结果。
VividTalk是一种一次性音频驱动的头像生成技术,基于3D混合先验。它能够生成具有表情丰富、自然头部姿态和唇同步的逼真说唱视频。该技术采用了两阶段通用框架,支持生成具有上述所有特性的高视觉质量的说唱视频。具体来说,在第一阶段,通过学习两种运动(非刚性表情运动和刚性头部运动),将音频映射到网格。对于表情运动,采用混合形状和顶点作为中间表示,以最大化模型的表征能力。对于自然头部运动,提出了一种新颖的可学习头部姿势码本,并采用两阶段训练机制。在第二阶段,提出了一个双分支运动VAE和一个生成器,将网格转换为密集运动,并逐帧合成高质量视频。大量实验证明,VividTalk能够生成具有唇同步和逼真增强的高视觉质量说唱视频,且在客观和主观比较中优于以往的最先进作品。该技术的代码将在发表后公开发布。
GAIA旨在从语音和单个肖像图像合成自然的对话视频。我们引入了GAIA(Avatar的生成AI),它消除了对话头像生成中的领域先验。GAIA分为两个阶段:1)将每帧分解为运动和外观表示;2)在语音和参考肖像图像的条件下生成运动序列。我们收集了大规模高质量的对话头像数据集,并在不同规模上对模型进行了训练。实验结果验证了GAIA的优越性、可扩展性和灵活性。方法包括变分自动编码器(VAE)和扩散模型。扩散模型被优化为在语音序列和视频片段中的随机帧的条件下生成运动序列。GAIA可用于不同的应用,如可控对话头像生成和文本指导的头像生成。
Sketch Video Synthesis是一个基于优化的视频素描生成框架,通过帧间贝塞尔曲线表示视频,利用语义损失和一种新设计的一致性损失进行曲线位置优化,生成具有印象派风格的视频素描并保持时间上的连贯性。可用于视频编辑和视频涂鸦,支持SVG线条的灵活渲染,包括调整大小、填充颜色以及在原始背景图像上叠加涂鸦。
Animate Anyone旨在通过驱动信号从静态图像生成角色视频。我们利用扩散模型的力量,提出了一个专为角色动画量身定制的新框架。为了保持参考图像中复杂外观特征的一致性,我们设计了ReferenceNet来通过空间注意力合并详细特征。为了确保可控性和连续性,我们引入了一个高效的姿势指导器来指导角色的动作,并采用了一种有效的时间建模方法,以确保视频帧之间的平滑跨帧过渡。通过扩展训练数据,我们的方法可以为任意角色制作动画,与其他图像到视频方法相比,在角色动画方面取得了出色的结果。此外,我们在时尚视频和人类舞蹈合成的基准上评估了我们的方法,取得了最先进的结果。
SparseCtrl是为了增强对文本到视频生成的控制性而开发的,它能够灵活地结合稀疏信号进行结构控制,只需一个或少量输入。它包括一个额外的条件编码器来处理这些稀疏信号,同时不影响预训练的文本到视频模型。该方法兼容各种形式,包括素描、深度和RGB图像,为视频生成提供更实用的控制,并推动故事板、深度渲染、关键帧动画和插值等应用。大量实验证明了SparseCtrl在原始和个性化文本到视频生成器上的泛化能力。
MagicDance是一种新颖有效的方法,可以生成逼真的人类视频,实现生动的动作和面部表情转移,以及一致的2D卡通风格动画零调优生成。通过MagicDance,我们可以精确生成外观一致的结果,而原始的T2I模型(如稳定扩散和ControlNet)很难准确地保持主题身份信息。此外,我们提出的模块可以被视为原始T2I模型的扩展/插件,而不需要修改其预训练权重。
FrameAI - AI 视频生成器能够立即将您的照片转化为 AI 视频。借助先进的 Deforum - Stable Diffusion 技术,FrameAI - AI 视频生成器可以智能分析和增强您的内容,生成视觉吸引力强、引人入胜的视频。选择各种精心设计的模板和风格,如动漫、小丑、赛博朋克等,快速生成令人惊叹的 AI 视频。与流行的社交媒体平台无缝集成,轻松分享您的杰作,并以精美的 AI 生成视频与观众区别开来。
Kandinsky Deforum是一种基于Kandinsky扩展和Deforum特性的文本到图像生成模型。该模型可以将文本转换为视频,具有高效、快速、准确的特点。其核心方法包括生成参考帧、对前一帧进行小变换、通过图像到图像方法对结果图像进行扩散处理。Kandinsky Deforum的优势在于可以生成高质量的视频,同时具有良好的可扩展性和灵活性。该产品的定位是为用户提供一种高效、快速、准确的文本到图像生成模型。
Endless AI Video Loops是一款AI艺术视频循环生成器,可以将图片转换为无限循环的视频。用户可以使用自己的图片或者使用应用程序提供的提示来生成视频循环。该应用程序是唯一的AI艺术视频循环生成器,可以让用户轻松创建迷人的视频循环,只需几秒钟即可完成。应用程序完全免费,但也提供应用内购买选项,用户可以购买终身无限积分。
MagicAvatar是一个多模态框架,能够将各种输入模式(文本、视频和音频)转换为运动信号,从而生成/动画化头像。它可以通过简单的文本提示创建头像,也可以根据给定的源视频创建遵循给定运动的头像。此外,它还可以动画化特定主题的头像。MagicAvatar的优势在于它能够将多种输入模式结合起来,生成高质量的头像和动画。
Flythroughs是一款基于AI和3D生成技术的应用程序,可以帮助用户轻松地创建专业的3D Flythroughs。它采用了世界上最先进的3D生成NeRF技术,可以从视频中生成逼真的3D体验,无需任何培训或特殊设备。Flythroughs还集成了全新的3D相机路径AI,可以一键生成逼真的3D体验。Flythroughs适用于房地产、建筑、旅游、娱乐等领域,可以帮助用户展示空间的流动性和独特之处。
爱推文是一个利用 AI 绘画帮助用户通过一键将小说推文转化成漫画视频解说进行快速变现的工具。通过 AI 识别和生成,将原来 1 天的工作缩短为 10 分钟,提升视频产出效率。所有画面、字幕、配音均为原创,保证纯原创视频内容。
Pix2Pix Video是一个小程序,可以将图像转换为逼真的视频。它使用Pix2Pix模型,能够生成高质量的视频,使静态图像栩栩如生。Pix2Pix Video具有简单易用的界面,用户只需上传一张图像,并设置相关参数,即可生成惊艳的视频。它可用于各种场景,如动画制作、虚拟现实、特效添加等。Pix2Pix Video是一个强大的图像处理工具,能够提供无限创意的可能性。
D-ID是一个创意AI平台,使用AI技术将照片转换为视频。它可以轻松地从文本生成视频,为培训材料、内部沟通、营销等提供AI驱动的、经济实惠的视频解决方案。D-ID还可以实现与聊天机器人进行面对面的对话,使用户获得更加沉浸式和人性化的体验。D-ID还提供API和自助工作室,供开发人员使用。
探索 图像 分类下的其他子分类
832 个工具
771 个工具
543 个工具
522 个工具
352 个工具
196 个工具
95 个工具
68 个工具
AI视频生成 是 图像 分类下的热门子分类,包含 45 个优质AI工具