-->
共找到 36 个AI工具
点击任意工具查看详细信息
Gitee AI 汇聚最新最热 AI 模型,提供模型体验、推理、训练、部署和应用的一站式服务,提供充沛算力,定位为中国最好的 AI 社区。
MouSi是一种多模态视觉语言模型,旨在解决当前大型视觉语言模型(VLMs)面临的挑战。它采用集成专家技术,将个体视觉编码器的能力进行协同,包括图像文本匹配、OCR、图像分割等。该模型引入融合网络来统一处理来自不同视觉专家的输出,并在图像编码器和预训练LLMs之间弥合差距。此外,MouSi还探索了不同的位置编码方案,以有效解决位置编码浪费和长度限制的问题。实验结果表明,具有多个专家的VLMs表现出比孤立的视觉编码器更出色的性能,并随着整合更多专家而获得显著的性能提升。
OpenAI Embedding Models是一系列新型嵌入模型,包括两个全新的嵌入模型和更新的GPT-4 Turbo预览模型、GPT-3.5 Turbo模型以及文本内容审核模型。默认情况下,发送到OpenAI API的数据不会用于训练或改进OpenAI模型。新的嵌入模型具有更低的定价,包括更小、高效的text-embedding-3-small模型和更大、更强大的text-embedding-3-large模型。嵌入是表示自然语言或代码等内容中概念的一系列数字。嵌入使得机器学习模型和其他算法更容易理解内容之间的关系,并执行聚类或检索等任务。它们为ChatGPT和Assistants API中的知识检索以及许多检索增强生成(RAG)开发工具提供支持。text-embedding-3-small是新的高效嵌入模型,相比其前身text-embedding-ada-002模型,性能更强,MIRACL的平均分数从31.4%提升至44.0%,而在英语任务(MTEB)的平均分数从61.0%提升至62.3%。text-embedding-3-small的定价也比之前的text-embedding-ada-002模型降低了5倍,从每千个标记的价格$0.0001降至$0.00002。text-embedding-3-large是新一代更大的嵌入模型,能够创建高达3072维的嵌入。性能更强,MIRACL的平均分数从31.4%提升至54.9%,而在MTEB的平均分数从61.0%提升至64.6%。text-embedding-3-large的定价为$0.00013/千个标记。此外,我们还支持缩短嵌入的原生功能,使得开发者可以在性能和成本之间进行权衡。
Adept Fuyu-Heavy是一款新型的多模态模型,专为数字代理设计。它在多模态推理方面表现出色,尤其在UI理解方面表现出色,同时在传统的多模态基准测试中也表现良好。此外,它展示了我们可以扩大Fuyu架构并获得所有相关好处的能力,包括处理任意大小/形状的图像和有效地重复使用现有的变压器优化。它还具有匹配或超越相同计算级别模型性能的能力,尽管需要将部分容量用于图像建模。
Meta-Prompting是一种有效的脚手架技术,旨在增强语言模型(LM)的功能。该方法将单个LM转化为一个多方位的指挥者,擅长管理和整合多个独立的LM查询。通过使用高层指令,元提示引导LM将复杂任务分解为更小、更易管理的子任务。然后,这些子任务由相同LM的不同“专家”实例处理,每个实例都根据特定的定制指令操作。这个过程的核心是LM本身,作为指挥者,它确保这些专家模型的输出之间的无缝沟通和有效整合。它还利用其固有的批判性思维和强大的验证过程来完善和验证最终结果。这种协作提示方法使单个LM能够同时充当全面的指挥者和多样化专家团队,显著提升其在各种任务中的性能。元提示的零射击、任务无关性质极大地简化了用户交互,无需详细的任务特定指令。此外,我们的研究表明,外部工具(如Python解释器)与元提示框架能够无缝集成,从而扩大了其适用性和效用。通过与GPT-4的严格实验,我们证明了元提示优于传统脚手架方法:在所有任务中取平均值,包括24点游戏、一步将军和Python编程难题,使用Python解释器功能的元提示比标准提示高出17.1%,比专家(动态)提示高出17.3%,比多人格提示高出15.2%。
WARM是一种通过加权平均奖励模型(WARM)来对齐大型语言模型(LLMs)与人类偏好的解决方案。首先,WARM对多个奖励模型进行微调,然后在权重空间中对它们进行平均。通过加权平均,WARM相对于传统的预测集成方法提高了效率,同时改善了在分布转移和偏好不一致性下的可靠性。我们的实验表明,WARM在摘要任务上的表现优于传统方法,使用最佳N和RL方法,WARM提高了LLM预测的整体质量和对齐性。
ReFT是一种增强大型语言模型(LLMs)推理能力的简单而有效的方法。它首先通过监督微调(SFT)对模型进行预热,然后使用在线强化学习,具体来说是本文中的PPO算法,进一步微调模型。ReFT通过自动对给定问题进行大量推理路径的采样,并从真实答案中自然地得出奖励,从而显著优于SFT。ReFT的性能可能通过结合推理时策略(如多数投票和重新排名)进一步提升。需要注意的是,ReFT通过学习与SFT相同的训练问题而获得改进,而无需依赖额外或增强的训练问题。这表明ReFT具有更强的泛化能力。
Contrastive Preference Optimization是一种用于机器翻译的创新方法,通过训练模型避免生成仅仅足够而不完美的翻译,从而显著提高了ALMA模型的性能。该方法在WMT'21、WMT'22和WMT'23测试数据集上可以达到或超过WMT竞赛获胜者和GPT-4的性能。
智谱AI在首届技术开放日上发布了GLM-4和CogView3。GLM-4性能全面提升近60%,支持更长的上下文、更强的多模态支持和更快速的推理。CogView3逼近DALL·E 3的多模态生成能力。产品定位为下一代基座大模型和图像生成AI。
Chain-of-Table是一种表格理解的推理链表框架,专门用于处理基于表格的问答和事实验证等任务。它采用了表格数据作为推理链的一部分,通过在上下文中学习的方式指导大型语言模型进行操作生成和表格更新,从而形成一个连续的推理链,展示了给定表格问题的推理过程。这种推理链包含了中间结果的结构化信息,能够实现更准确可靠的预测。Chain-of-Table在WikiTQ、FeTaQA和TabFact等多个基准测试中取得了新的最先进性能。
DocGraphLM是一种用于信息提取和问题解答的文档图语言模型。它采用了先进的视觉丰富文档理解技术,结合了预训练语言模型和图形语义。其独特之处在于提出了联合编码器架构来表示文档,并采用了一种新颖的链接预测方法来重构文档图。DocGraphLM通过收敛的联合损失函数预测节点之间的方向和距离,优先考虑邻域恢复并降低远程节点检测的权重。在三个SotA数据集上的实验表明,采用图形特征能够在信息提取和问题解答任务上实现一致的改进。此外,我们还报告说,采用图形特征能够加速训练过程中的收敛,尽管这些特征仅通过链接预测构建。
TinyGPT-V 是一种高效的多模态大型语言模型,通过使用小型骨干网络来实现。它具有强大的语言理解和生成能力,适用于各种自然语言处理任务。TinyGPT-V 采用 Phi-2 作为预训练模型,具备出色的性能和效率。
PowerInfer 是一个在个人电脑上利用消费级 GPU 进行高速大型语言模型推理的引擎。它利用 LLM 推理中的高局部性特点,通过预加载热激活的神经元到 GPU 上,从而显著降低了 GPU 内存需求和 CPU-GPU 数据传输。PowerInfer 还集成了自适应预测器和神经元感知的稀疏运算符,优化神经元激活和计算稀疏性的效率。它可以在单个 NVIDIA RTX 4090 GPU 上以平均每秒 13.20 个标记的生成速率进行推理,比顶级服务器级 A100 GPU 仅低 18%。同时保持模型准确性。
Gemini是谷歌最强大和通用的AI模型,旨在成为多模态的,并针对三种不同大小进行了优化:Ultra,Pro和Nano。Gemini模型具有卓越的性能和下一代功能,可为各种应用提供强大的AI支持。 它提供可扩展的,高效的解决方案,并注重责任和安全性。 Gemini模型已经在市场上可用。
LEO是一个基于大型语言模型的多模态、多任务全能代理人,能够在3D世界中感知、定位、推理、规划和执行任务。LEO通过两个阶段的训练实现:(i)3D视觉语言对齐和(ii)3D视觉语言动作指令调整。我们精心策划和生成了一个包含物体级和场景级多模态任务的大规模数据集,需要对3D世界进行深入的理解和交互。通过严格的实验,我们展示了LEO在3D字幕、问答、推理、导航和机器人操作等广泛任务中的出色表现。
AndesGPT 安第斯大模型是 OPPO 发布的个性专属大模型与智能体,基于端云协同架构设计,提供多种不同参数规模的模型规格,支持对话增强、个性专属和端云协同等技术特性。OPPO 将布局大模型前瞻技术,联合中国科技大学成立的智能计算联合实验室,开源智能体框架,支持智能体的高效孵化、托管与应用。
紫东太初是中科院自动化所和武汉人工智能研究院推出的新一代大模型,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力。具有广泛的应用场景,包括文本创作、知识问答、图文音理解、音乐生成、3D理解和信号分析等功能。产品定位于提供高质量的人工智能交互体验。
Video GPT是一个基于人工智能的视频生成模型,它可以根据用户的输入生成各种类型的视频。它具有高度的灵活性和创造力,可以生成真实和逼真的视频内容。Video GPT的优势在于其强大的语言理解和视频生成能力,用户可以通过简单的文本输入,快速生成符合需求的视频。Video GPT的定价根据使用情况而定,提供灵活的付费方案。
PremAI是一款自主可控的人工智能基础设施,提供完整的AI解决方案。它具有高度的灵活性和可扩展性,可以满足各种不同的AI需求。PremAI的主要功能包括模型训练和部署、数据管理和处理、模型评估和优化等。它的优势在于提供了自主可控的AI环境,用户可以完全掌控自己的数据和模型。PremAI的定价根据用户的需求和使用情况而定,具体详情请访问官方网站。
Pali3是一种视觉语言模型,通过对图像进行编码并与查询一起传递给编码器-解码器Transformer来生成所需的答案。该模型经过多个阶段的训练,包括单模态预训练、多模态训练、分辨率增加和任务专业化。Pali3的主要功能包括图像编码、文本编码、文本生成等。该模型适用于图像分类、图像字幕、视觉问答等任务。Pali3的优势在于模型结构简单、训练效果好、速度快。该产品定价为免费开源。
OVO A.I.旨在通过利用人工智能领域的尖端研究成果,提供有用的解决方案,以人性化技术。我们已经适应了技术太久,现在是技术适应我们人类的时候了。让奇迹成为可能!
Google Cloud AutoML能够基于结构化数据自动构建和部署高级的自定义机器学习模型,使用简单的图形界面,开发者无需深入的机器学习知识就可以训练出高质量的模型,并可以轻松部署模型并调整规模。涵盖图像分类、对象检测、文本分类等多个领域。
Amazon SageMaker是一个完全托管的机器学习服务,能够帮助开发人员和数据科学家快速且低成本地构建、训练和部署高质量的机器学习模型。它提供了一个完整的开发环境,包含了可视化界面、Jupyter笔记本、自动机器学习、模型训练和部署等功能。用户无需管理任何基础设施,就可以通过SageMaker构建端到端的机器学习解决方案。
魔搭社区是一个人工智能模型的开发者社区。它汇聚各领域最先进的机器学习模型,为用户提供模型探索、定制、训练、部署和应用的一站式服务。用户可以便捷地搜索感兴趣的模型,快速上手使用。同时,社区还开源了众多预训练模型,开发者可以基于这些模型进行二次开发。魔搭社区致力于降低AI开发门槛,帮助开发者更便捷地获取、使用AI能力。
百川大模型是一款融合了意图理解、信息检索以及强化学习技术的中英双语大模型。它结合有监督微调与人类意图对齐,在知识问答、文本创作领域表现突出。Baichuan-7B、Baichuan-13B两款开源可免费商用的中文大模型,且在多个权威评测榜单均名列前茅,下载量突破百万。产品定位为提供高质量的语言AI服务,帮助用户轻松、普惠地获取世界知识和专业服务。
BOMML是一个智能AI托管平台,为您的业务提供一站式AI解决方案。我们从数据收集到模型部署,为您提供全方位的协助。我们的AI模型运行在安全的数据中心云上,保护您的隐私和数据安全。BOMML支持多种任务,包括文本生成、对话聊天、嵌入控制、分析、光学字符识别等。无论您的技术栈如何,都可以轻松地通过API集成AI到您的应用中。我们提供市场上最具竞争力的定价,您只需按实际使用量支付费用。如果您有特定任务或基于您的数据需要AI,我们可以为您进行调优和训练。您可以将文档、文件和其他元数据添加为知识库,以生成更相关的响应。如果您需要在您的硬件上运行专属的AI模型,我们也会提供帮助。无论您有什么需求,我们的专家都会为您找到解决方案。
Anthropic是一款人工智能平台,通过深度学习和自然语言处理等技术,提供先进的人工智能解决方案。我们的产品具有强大的功能和优势,可应用于图像识别、自然语言处理、机器学习等领域。定价灵活合理,定位为帮助用户实现人工智能应用的目标。无论您是开发者、研究人员还是企业,Anthropic都能满足您的需求。
百川 - 13B 是由百川智能开发的开源可商用的大规模语言模型,参数量达到 130 亿,训练数据量达到 1.4 万亿 tokens。该模型支持中英双语,具有高质量的预测和对话能力。模型支持量化部署和 CPU 推理,并在多个基准测试中取得优秀结果。可以广泛应用于自然语言处理领域的任务,如问答系统、对话系统、文本生成等。
盘古大模型是华为云推出的人工智能解决方案,通过 NLP 大模型、CV 大模型、多模态大模型、预测大模型和科学计算大模型等多个模型,实现对话问答、图像识别、多模态处理、预测分析和科学计算等多种功能。盘古大模型具有高效适配、高效标注和准确可控的特点,可广泛应用于各行各业。详情请访问官方网址。
Openfabric AI是一个分布式人工智能平台,通过区块链、先进的加密和新型基础设施,为人工智能应用的构建和使用创造了一个新的基础。它降低了利用人工智能应用所需的基础设施需求和技术知识,促进了新的市场机会。
讯飞星火认知大模型是科大讯飞推出的新一代认知智能大模型,拥有跨领域的知识和语言理解能力,能够基于自然对话方式理解与执行任务。它具有语言理解、知识问答、逻辑推理、数学题解答、代码理解与编写等多种能力。该产品定位于为用户提供全面的语言理解与执行任务的解决方案。
FABRIC 是一个通过迭代反馈来个性化定制扩散模型的工具。它提供了一种简单的方法来根据用户的反馈来改进模型的性能。用户可以通过迭代的方式与模型进行交互,并通过反馈来调整模型的预测结果。FABRIC 还提供了丰富的功能,包括模型训练、参数调整和性能评估。它的定价根据用户的使用情况而定,可满足不同用户的需求。
Llama 2 是我们的下一代开源大型语言模型,提供免费的研究和商业使用。它具有强大的功能和性能,通过与外部合作伙伴和内部团队的测试,不断提升安全性和性能。Llama 2 支持广泛的使用场景,是解决难题和推动创新的理想选择。
伪灵活基础模型(ptx0/pseudo-flex-base)是基于 Diffusion 技术的文本到图像生成模型。它通过将文本描述转换为逼真的图像,提供了灵活的图像生成能力。该模型可以根据给定的文本提示生成与文本描述相符合的图像,具有高度的灵活性和生成效果。该模型还具有稳定的性能和可靠的训练基础,可以广泛应用于人工智能领域的图像生成任务。
Stability AI 生成模型是一个开源的生成模型库,提供了各种生成模型的训练、推理和应用功能。该库支持各种生成模型的训练,包括基于 PyTorch Lightning 的训练,提供了丰富的配置选项和模块化的设计。用户可以使用该库进行生成模型的训练,并通过提供的模型进行推理和应用。该库还提供了示例训练配置和数据处理的功能,方便用户进行快速上手和定制。
英特尔AI和深度学习解决方案是由英特尔与 Accenture 合作推出的一系列可下载的 AI 参考套件,旨在帮助企业加速其数字化转型之旅。这些套件基于英特尔提供给数据科学家和开发人员的 AI 应用工具构建而成,每个套件包括模型代码、训练数据、机器学习流程的说明、库和英特尔 oneAPI 组件。
探索 人工智能 分类下的其他子分类
17 个工具
12 个工具
10 个工具
8 个工具
7 个工具
6 个工具
AI模型 是 人工智能 分类下的热门子分类,包含 36 个优质AI工具