-->
共找到 34 个AI工具
点击任意工具查看详细信息
NVLM 1.0是NVIDIA ADLR推出的前沿级多模态大型语言模型系列,它在视觉-语言任务上达到了业界领先水平,与顶级专有模型和开放访问模型相媲美。该模型在多模态训练后,甚至在纯文本任务上的准确性上也有所提高。NVLM 1.0的开源模型权重和Megatron-Core训练代码为社区提供了宝贵的资源。
Llama 3.2是由Meta公司推出的多语言大型语言模型(LLMs),包含1B和3B两种规模的预训练和指令调优生成模型。这些模型在多种语言对话用例中进行了优化,包括代理检索和总结任务。Llama 3.2在许多行业基准测试中的表现优于许多现有的开源和封闭聊天模型。
Llama 3.2是一系列大型语言模型(LLMs),预训练和微调在1B和3B大小的多语言文本模型,以及11B和90B大小的文本和图像输入输出文本的模型。这些模型可以用于开发高性能和高效率的应用。Llama 3.2的模型可以在移动设备和边缘设备上运行,支持多种编程语言,并且可以通过Llama Stack构建代理应用程序。
Intel® Gaudi® 3 AI Accelerator是英特尔推出的一款高性能人工智能加速器,它基于高效的英特尔® Gaudi® 平台构建,具备出色的MLPerf基准性能,旨在处理要求苛刻的训练和推理任务。该加速器支持数据中心或云中的大型语言模型、多模态模型和企业RAG等人工智能应用程序,能够在您可能已经拥有的以太网基础设施上运行。无论您需要单个加速器还是数千个加速器,英特尔Gaudi 3都可以在您的AI成功中发挥关键作用。
Nemotron-Mini-4B-Instruct 是 NVIDIA 开发的一款小型语言模型,通过蒸馏、剪枝和量化优化,以提高速度和便于在设备上部署。它是从 Nemotron-4 15B 通过 NVIDIA 的大型语言模型压缩技术剪枝和蒸馏得到的 nvidia/Minitron-4B-Base 的微调版本。此指令模型针对角色扮演、检索增强问答(RAG QA)和功能调用进行了优化,支持 4096 个令牌的上下文长度,已准备好用于商业用途。
DataGemma RIG是一系列微调后的Gemma 2模型,旨在帮助大型语言模型(LLMs)访问并整合来自Data Commons的可靠公共统计数据。该模型采用检索式生成方法,通过自然语言查询Data Commons的现有自然语言接口,对响应中的统计数据进行注释。DataGemma RIG在TPUv5e上使用JAX进行训练,目前是早期版本,主要用于学术和研究目的,尚未准备好用于商业或公众使用。
OLMoE-1B-7B 是一个具有1亿活跃参数和7亿总参数的专家混合型大型语言模型(LLM),于2024年9月发布。该模型在成本相似的模型中表现卓越,与更大的模型如Llama2-13B竞争。OLMoE完全开源,支持多种功能,包括文本生成、模型训练和部署等。
AI21 Jamba 1.5系列模型是市场上最强大的长上下文模型之一,提供比同类领先模型快2.5倍的推理速度。这些模型展示了卓越的长上下文处理能力、速度和质量,是首次成功将非Transformer模型扩展到市场领先模型的质量和强度。
AI21-Jamba-1.5-Mini是AI21实验室开发的最新一代混合SSM-Transformer指令跟随基础模型。这款模型以其卓越的长文本处理能力、速度和质量在市场上脱颖而出,相较于同类大小的领先模型,推理速度提升高达2.5倍。Jamba 1.5 Mini和Jamba 1.5 Large专为商业用例和功能进行了优化,如函数调用、结构化输出(JSON)和基础生成。
Jamba 1.5 Open Model Family是AI21公司推出的最新AI模型系列,基于SSM-Transformer架构,具有超长文本处理能力、高速度和高质量,是市场上同类产品中表现最优的。这些模型专为企业级应用设计,考虑了资源效率、质量、速度和解决关键任务的能力。
Phi-3是微软Azure推出的一系列小型语言模型(SLMs),具有突破性的性能,同时成本和延迟都很低。这些模型专为生成式AI解决方案设计,体积更小,计算需求更低。Phi-3模型遵循微软AI原则开发,包括责任、透明度、公平性、可靠性和安全性、隐私和安全性以及包容性,确保了安全性。此外,Phi-3还提供了本地部署、准确相关回答、低延迟场景部署、成本受限任务处理和定制化精度等功能。
Gemini Pro是DeepMind推出的一款高性能多模态AI模型,专为广泛的任务设计,具有高达两百万token的长上下文窗口,能够处理大规模文档、代码、音频和视频等。它在多个基准测试中表现出色,包括代码生成、数学问题解决和多语言翻译等。
H2O-Danube2-1.8B是H2O.ai最新发布的开源小型语言模型,专为离线应用和企业级应用设计,具有经济高效的接口和训练成本,易于嵌入到移动电话、无人机等边缘设备中。该模型在Hugging Face Open LLM Leaderboard的<2B范围内排名第一,提供高达200倍的查询成本节省,同时在文档处理上提供更好的准确性,成本降低高达100%。H2O.ai平台还提供了成本控制和灵活性,支持超过30种大型语言模型(Large Language Models, LLMs)的混合使用,包括专有和开源的LLMs。
Nemotron-4 340B是NVIDIA发布的一系列开放模型,专为生成合成数据以训练大型语言模型(LLMs)而设计。这些模型经过优化,可以与NVIDIA NeMo和NVIDIA TensorRT-LLM配合使用,以提高训练和推理的效率。Nemotron-4 340B包括基础、指令和奖励模型,形成一个生成合成数据的管道,用于训练和完善LLMs。这些模型在Hugging Face上提供下载,并很快将在ai.nvidia.com上提供,作为NVIDIA NIM微服务的一部分。
Buffer of Thoughts (BoT) 是一种新型的思考增强推理方法,旨在提高大型语言模型(LLMs)的准确性、效率和鲁棒性。通过引入一个元缓冲区来存储从各种任务的问题解决过程中提取的高级思考模板,称为思考模板。对于每个问题,检索一个相关的思考模板,并适应性地将其实例化为特定的推理结构以进行高效推理。此外,还提出了一个缓冲区管理器来动态更新元缓冲区,从而随着解决更多任务而增强其容量。
Mistral-7B-v0.3是由Mistral AI团队开发的大型语言模型(Large Language Model, LLM),它是Mistral-7B-v0.2的升级版,具有扩展到32768的词汇量。该模型支持文本生成,适合于需要文本生成能力的应用场景。目前,该模型没有内容审核机制,团队正在寻求社区合作,以实现更精细的内容审核,满足需要内容审核的部署环境。
MiniCPM-Llama3-V 2.5 是 OpenBMB 项目中最新发布的端侧多模态大模型,具备8B参数量,支持超过30种语言的多模态交互,并在多模态综合性能上超越了多个商用闭源模型。该模型通过模型量化、CPU、NPU、编译优化等技术实现了高效的终端设备部署,具有优秀的OCR能力、可信行为以及多语言支持等特点。
Llama-3-Giraffe-70B-Instruct是Abacus.AI推出的一款大型语言模型,它通过PoSE和动态NTK插值的训练方法,具有更长的有效上下文长度,能够处理大量的文本数据。该模型在训练中使用了约1.5B个token,并且通过适配器转换技术,将Llama-3-70B-Base模型的适配器应用到Llama-3-Giraffe-70B-Instruct上,以提高模型的性能。
Amazon Titan Text Premier 是 Amazon Titan 系列模型中的新成员,专为文本基础的企业级应用设计,支持定制化微调以适应特定领域、组织、品牌风格和用例。该模型在 Amazon Bedrock 中提供,具备32K令牌的最大上下文长度,特别适合英文任务,并整合了负责任的人工智能实践。
Mistral-22b-v.02 是一个强大的模型,展现出出色的数学才能和编程能力。相较于V1,V2模型在连贯性和多轮对话能力方面有显著提升。该模型经过重新调整取消了审查,能够回答任何问题。训练数据主要包括多轮对话,特别强调编程内容。此外,模型具备智能体能力,可执行真实世界任务。训练采用了32k的上下文长度。在使用时需遵循GUANACO提示格式。
Stable LM 2 12B是一种12.1十亿参数的解码器式语言模型,经过2万亿token的多语种和代码数据集预训练。该模型可用作基础模型进行下游任务的微调,但在使用前需要评估和微调以确保安全可靠的性能。该模型可能包含不当内容,建议使用时谨慎评估,不要用于可能会给他人造成伤害的应用。
澜舟科技研发的孟子3-13B大模型基于Llama架构,经过3T Tokens的数据集训练,具备强大的多语言处理和交互推理能力。支持免费商用,为ToB场景打造优质大模型。
Cappy是一种新型方法,旨在提高大型多任务语言模型的性能和效率。它是一个轻量级的预训练评分器,基于RoBERTa,仅有3.6亿个参数。Cappy可独立解决分类任务,或作为辅助组件提升语言模型性能。在下游任务中微调Cappy,可有效整合监督信息,提高模型表现,且不需要反向传播到语言模型参数,降低了内存需求。Cappy适用于开源和封闭源代码的语言模型,是一种高效的模型微调方法。
Grok-1是由xAI从头开始训练的314亿参数的专家混合模型(Mixture-of-Experts)。该模型未经针对特定应用(如对话)的微调,是Grok-1预训练阶段的原始基础模型检查点。
nasa-smd-ibm-v0.1是一个基于RoBERTa的编码器转换模型,针对NASA科学任务进行了域适应优化。它在与NASA科学任务相关的科学期刊和文章上进行了微调训练,旨在增强自然语言技术,如信息检索和智能搜索等。该模型具有1.25亿个参数,使用掩码语言模型进行预训练。可用于命名实体识别、信息检索、句子转换、可扩展问答等任务,专门定位于NASA科学任务相关的科学用例。
Claude 3 Haiku是Anthropic公司最新推出的企业级AI模型。它拥有业界领先的视觉能力和卓越的基准测试表现,是广泛企业应用场景的灵活解决方案。该模型现可通过Claude API和claude.ai网站的Claude Pro订阅获取。速度是企业用户急需解决的痛点,他们需要快速分析大量数据并及时生成输出,比如客户支持任务。Claude 3 Haiku的处理速度是同等水平模型的3倍,对于32K以下token的提示可处理21K token(约30页)每秒。它还能生成迅速的输出,为响应灵敏、体验流畅的聊天交互和并行执行多个小任务提供支持。Haiku的定价模式(输入输出token比率1:5)是针对通常需要较长提示的企业工作负载而设计的。企业可依赖Haiku以一半的成本快速分析大量文档,如季度报告、合同或法律案例。例如,Claude 3 Haiku只需1美元就能处理和分析400个最高法院案例或2500张图像。除了速度和经济实惠,Claude 3 Haiku还注重企业级的安全性和稳健性。我们进行严格测试以降低有害输出和模型逃逸的可能性,确保模型尽可能安全。其他防护层包括持续系统监控、终端加固、安全编码实践、强数据加密协议和严格的访问控制等。我们还定期进行安全审计,与经验丰富的渗透测试人员合作,主动识别和解决漏洞。更多相关措施信息可查阅Claude 3的模型卡。
Gemma-2B-IT是谷歌推出的2B参数指令调整模型,基于Gemini架构,专为提高数学、推理和代码处理能力而设计。该模型在普通笔记本上即可运行,无需庞大的AI算力,适用于多种应用场景。
Large World Models是一个利用RingAttention技术训练的神经网络,专注于处理长视频和语言序列,以理解人类知识和多模态世界。它通过大规模数据集训练,实现了前所未有的上下文大小,并开源了一系列70亿参数的模型,能够处理超过100万标记的文本和视频。
大型语言模型在训练和推断中越来越依赖于分布式技术。这些技术需要在设备之间进行通信,随着设备数量的增加,这可能会降低扩展效率。虽然一些分布式技术可以重叠,从而隐藏独立计算的通信,但类似张量并行(TP)的技术固有地将通信与模型执行串行化。隐藏这种串行化通信的一种方法是以细粒度的方式将其与生产者操作(通信数据的产生)交错在一起。然而,在软件中实现这种细粒度的通信和计算交错可能很困难。此外,与任何并发执行一样,它需要在计算和通信之间共享计算和内存资源,导致资源争用,从而降低了重叠效率。为了克服这些挑战,我们提出了T3,它应用硬件-软件共同设计,透明地重叠串行通信,同时最小化与计算的资源争用。T3通过简单配置生产者的输出地址空间,透明地融合了生产者操作和随后的通信,需要进行轻微的软件更改。在硬件层面,T3添加了轻量级的跟踪和触发机制,以编排生产者的计算和通信。它进一步利用增强计算的存储器来进行通信的相关计算。因此,T3减少了资源争用,并有效地将串行通信与计算重叠。对于重要的Transformer模型,如T-NLG,T3将通信密集型子层的速度提高了30%的几何平均值(最大47%),并将数据移动减少了22%的几何平均值(最大36%)。此外,随着模型的扩展,T3的好处仍然存在:对于sim500亿参数模型的子层,几何平均值为29%,PALM和MT-NLG。
Honeybee是一个适用于多模态语言模型的局部性增强预测器。它能够提高多模态语言模型在不同下游任务上的性能,如自然语言推理、视觉问答等。Honeybee的优势在于引入了局部性感知机制,可以更好地建模输入样本之间的依赖关系,从而增强多模态语言模型的推理和问答能力。
ASPIRE是一个设计精良的框架,用于增强大型语言模型的选择性预测能力。它通过参数高效的微调训练LLM进行自我评估,使其能够针对生成的答案输出置信度分数。实验结果表明,ASPIRE在各种问答数据集上明显优于目前的选择性预测方法。
MiniMax 全量发布大语言模型 abab6,为国内首个 MoE 大语言模型。在 MoE 结构下,abab6 拥有大参数带来的处理复杂任务的能力,同时模型在单位时间内能够训练足够多的数据,计算效率也可以得到大幅提升。改进了 abab5.5 在处理更复杂、对模型输出有更精细要求场景中出现的问题。
RoboGen 是一款基于生成式模拟的自动机器人学习产品。它通过自动生成多样化的任务、场景和训练监督,实现大规模机器人技能学习。RoboGen 具备自主提出、生成、学习的能力,可以不断生成与各种任务和环境相关的技能演示。
Sagify是一个命令行工具,可以在几个简单步骤中训练和部署机器学习/深度学习模型在AWS SageMaker上!它消除了配置云实例进行模型训练的痛苦,简化了在云上运行超参数作业的过程,同时不再需要将模型交给软件工程师进行部署。Sagify提供了丰富的功能,包括AWS账户配置、Docker镜像构建、数据上传、模型训练、模型部署等。它适用于各种使用场景,帮助用户快速构建和部署机器学习模型。
探索 生产力 分类下的其他子分类
1361 个工具
904 个工具
767 个工具
619 个工具
607 个工具
431 个工具
406 个工具
398 个工具
AI模型推理训练 是 生产力 分类下的热门子分类,包含 34 个优质AI工具