-->
FLUX.1-Turbo-Alpha是一个基于FLUX.1-dev模型的8步蒸馏Lora,由AlimamaCreative Team发布。该模型使用多头鉴别器来提高蒸馏质量,可以用于文本到图像(T2I)、修复控制网络等FLUX相关模型。推荐使用指导比例为3.5,Lora比例为1。该模型在1M开源和内部源图像上进行训练,采用对抗性训练提高质量,固定原始FLUX.1-dev变换器作为鉴别器主干,并在每层变换器上添加多头。
基于FLUX.1-dev模型的8步蒸馏Lora,用于文本到图像生成。
生成一幅描述为'一个闪亮的大众面包车,车身上画有城市景观。一只微笑的树懒站在车前的草地上,穿着皮夹克、牛仔帽、苏格兰裙和领结。树懒手持一根长棍和一本大书。'的图像。
使用FLUX.1-Turbo-Alpha模型修复一张破损的图片,使其恢复原貌。
将一张普通图片通过FLUX.1-Turbo-Alpha模型转换为具有特定风格或主题的艺术作品。
发现更多类似的优质AI工具
FLUX.1 Krea [dev] 是一个拥有 120 亿参数的修正流转换器,专为从文本描述生成高质量图像而设计。该模型经过指导蒸馏训练,使其更高效,且开放权重推动科学研究和艺术创作。产品强调其美学摄影能力和强大的提示遵循能力,是对封闭源替代品的有力竞争。使用该模型的用户能够进行个人、科学和商业用途,推动创新的工作流程。
WAN 2.1 LoRA T2V是一款能够根据文本提示生成视频的工具,通过LoRA模块的定制训练,用户可以定制化生成视频,适用于品牌叙事、粉丝内容和风格化动画。产品背景丰富,提供高度定制化的视频生成体验。
Fotol AI是一个提供AGI技术和服务的网站,致力于为用户提供强大的人工智能解决方案。其主要优点包括先进的技术支持、丰富的功能模块和广泛的应用领域。Fotol AI的定位为成为用户探索AGI的首选平台,并为用户提供灵活多样的AI解决方案。
OmniGen2 是一个高效的多模态生成模型,结合了视觉语言模型和扩散模型,能够实现视觉理解、图像生成及编辑等功能。其开源特性为研究人员和开发者提供了强大的基础,助力个性化和可控生成 AI 的探索。
BAGEL是一款可扩展的统一多模态模型,它正在革新AI与复杂系统的交互方式。该模型具有对话推理、图像生成、编辑、风格转移、导航、构图、思考等功能,通过深度学习视频和网络数据进行预训练,为生成高保真度、逼真图像提供了基础。
FastVLM 是一种高效的视觉编码模型,专为视觉语言模型设计。它通过创新的 FastViTHD 混合视觉编码器,减少了高分辨率图像的编码时间和输出的 token 数量,使得模型在速度和精度上表现出色。FastVLM 的主要定位是为开发者提供强大的视觉语言处理能力,适用于各种应用场景,尤其在需要快速响应的移动设备上表现优异。
F Lite 是由 Freepik 和 Fal 开发的一个大型扩散模型,具有 100 亿个参数,专门训练于版权安全和适合工作环境 (SFW) 的内容。该模型基于 Freepik 的内部数据集,包含约 8000 万张合法合规的图像,标志着公开可用的模型在这一规模上首次专注于合法和安全的内容。它的技术报告提供了详细的模型信息,并且使用了 CreativeML Open RAIL-M 许可证进行分发。该模型的设计旨在推动人工智能的开放性和可用性。
Flex.2 是当前最灵活的文本到图像扩散模型,具备内置的重绘和通用控制功能。它是一个开源项目,由社区支持,旨在推动人工智能的民主化。Flex.2 具备 8 亿参数,支持 512 个令牌长度输入,并符合 OSI 的 Apache 2.0 许可证。此模型可以在许多创意项目中提供强大的支持。用户可以通过反馈不断改善模型,推动技术进步。
InternVL3是由OpenGVLab开源发布的多模态大型语言模型(MLLM),具备卓越的多模态感知和推理能力。该模型系列包含从1B到78B共7个尺寸,能够同时处理文字、图片、视频等多种信息,展现出卓越的整体性能。InternVL3在工业图像分析、3D视觉感知等领域表现出色,其整体文本性能甚至优于Qwen2.5系列。该模型的开源为多模态应用开发提供了强大的支持,有助于推动多模态技术在更多领域的应用。
VisualCloze 是一个通过视觉上下文学习的通用图像生成框架,旨在解决传统任务特定模型在多样化需求下的低效率问题。该框架不仅支持多种内部任务,还能泛化到未见过的任务,通过可视化示例帮助模型理解任务。这种方法利用了先进的图像填充模型的强生成先验,为图像生成提供了强有力的支持。
Step-R1-V-Mini是阶跃星辰推出的全新多模态推理模型,支持图文输入和文字输出,具备良好的指令遵循和通用能力。该模型在多模态协同场景下的推理表现上进行了技术优化,采用了多模态联合强化学习和充分利用多模态合成数据的训练方法,有效提升了模型在图像空间的复杂链路处理能力。Step-R1-V-Mini在多个公开榜单中表现亮眼,特别是在MathVision视觉推理榜单上位列国内第一,展现了其在视觉推理、数学逻辑和代码等方面的优异表现。该模型已正式上线阶跃AI网页端,并在阶跃星辰开放平台提供API接口,供开发者和研究人员体验和使用。
HiDream-I1 是一款新型的开源图像生成基础模型,拥有 170 亿个参数,能够在几秒内生成高质量图像。该模型适用于研究和开发,并在多个评测中表现优异,具有高效性和灵活性,适合用于各种创意设计和生成任务。
EasyControl 是一个为 Diffusion Transformer(扩散变换器)提供高效灵活控制的框架,旨在解决当前 DiT 生态系统中存在的效率瓶颈和模型适应性不足等问题。其主要优点包括:支持多种条件组合、提高生成灵活性和推理效率。该产品是基于最新研究成果开发的,适合在图像生成、风格转换等领域使用。
RF-DETR 是一个基于变压器的实时目标检测模型,旨在为边缘设备提供高精度和实时性能。它在 Microsoft COCO 基准测试中超过了 60 AP,具有竞争力的性能和快速的推理速度,适合各种实际应用场景。RF-DETR 旨在解决现实世界中的物体检测问题,适用于需要高效且准确检测的行业,如安防、自动驾驶和智能监控等。
Stable Virtual Camera是Stability AI开发的一个1.3B参数的通用扩散模型,属于Transformer图像转视频模型。其重要性在于为新型视图合成(NVS)提供了技术支持,能够根据输入视图和目标相机生成3D一致的新场景视图。主要优点是可自由指定目标相机轨迹,能生成大视角变化且时间上平滑的样本,无需额外神经辐射场(NeRF)蒸馏即可保持高一致性,还能生成长达半分钟的高质量无缝循环视频。该模型仅可免费用于研究和非商业用途,定位是为研究人员和非商业创作者提供创新的图像转视频解决方案。
Flat Color - Style是一款专为生成扁平色彩风格图像和视频设计的LoRA模型。它基于Wan Video模型训练,具有独特的无线条、低深度效果,适合用于动漫、插画和视频生成。该模型的主要优点是能够减少色彩渗出,增强黑色表现力,同时提供高质量的视觉效果。它适用于需要简洁、扁平化设计的场景,如动漫角色设计、插画创作和视频制作。该模型是免费提供给用户使用的,旨在帮助创作者快速实现具有现代感和简洁风格的视觉作品。