-->
找到 52 个相关的AI工具
Fogsight 是一款创新的动画引擎,利用大型语言模型生成生动的动画。它不仅支持多种语言,还能根据用户的输入生成高水平的叙事动画,适用于教育、娱乐和创意领域。Fogsight 注重用户体验,允许通过简单的界面与 AI 进行交互,快速生成所需的动画内容。
WeClone 是一个基于微信聊天记录微调大语言模型的项目,主要用于实现高质量的声音克隆和数字分身。它结合了微信语音消息和 0.5B 大模型,允许用户通过聊天机器人与自己的数字分身互动。该技术在数字永生和声音克隆领域具有重要的应用价值,可以让用户在不在场的情况下继续与他人交流。此项目正在快速迭代中,适合对 AI 和语言模型感兴趣的用户,且目前处于免费的开发阶段。
Dream 7B 是由香港大学 NLP 组和华为诺亚方舟实验室联合推出的最新扩散大语言模型。它在文本生成领域展现了优异的性能,特别是在复杂推理、长期规划和上下文连贯性等方面。该模型采用了先进的训练方法,具有强大的计划能力和灵活的推理能力,为各类 AI 应用提供了更为强大的支持。
NotaGen 是一款创新的符号音乐生成模型,通过预训练、微调和强化学习三个阶段提升音乐生成质量。它利用大语言模型技术,能够生成高质量的古典乐谱,为音乐创作带来新的可能性。该模型的主要优点包括高效生成、风格多样和高质量输出。它适用于音乐创作、教育和研究等领域,具有广泛的应用前景。
Atom of Thoughts (AoT) 是一种新型推理框架,通过将解决方案表示为原子问题的组合,将推理过程转化为马尔可夫过程。该框架通过分解和收缩机制,显著提升了大语言模型在推理任务上的性能,同时减少了计算资源的浪费。AoT 不仅可以作为独立的推理方法,还可以作为现有测试时扩展方法的插件,灵活结合不同方法的优势。该框架开源且基于 Python 实现,适合研究人员和开发者在自然语言处理和大语言模型领域进行实验和应用。
Spark-TTS 是一种基于大语言模型的高效文本到语音合成模型,具有单流解耦语音令牌的特性。它利用大语言模型的强大能力,直接从代码预测的音频进行重建,省略了额外的声学特征生成模型,从而提高了效率并降低了复杂性。该模型支持零样本文本到语音合成,能够跨语言和代码切换场景,非常适合需要高自然度和准确性的语音合成应用。它还支持虚拟语音创建,用户可以通过调整参数(如性别、音高和语速)来生成不同的语音。该模型的背景是为了解决传统语音合成系统中效率低下和复杂性高的问题,旨在为研究和生产提供高效、灵活且强大的解决方案。目前,该模型主要面向学术研究和合法应用,如个性化语音合成、辅助技术和语言研究等。
Level-Navi Agent是一个开源的通用网络搜索代理框架,能够将复杂问题分解并逐步搜索互联网上的信息,直至回答用户问题。它通过提供Web24数据集,覆盖金融、游戏、体育、电影和事件等五大领域,为评估模型在搜索任务上的表现提供了基准。该框架支持零样本和少样本学习,为大语言模型在中文网络搜索代理领域的应用提供了重要参考。
M2RAG是一个用于多模态上下文中的检索增强生成的基准测试代码库。它通过多模态检索文档来回答问题,评估多模态大语言模型(MLLMs)在利用多模态上下文知识方面的能力。该模型在图像描述、多模态问答、事实验证和图像重排等任务上进行了评估,旨在提升模型在多模态上下文学习中的有效性。M2RAG为研究人员提供了一个标准化的测试平台,有助于推动多模态语言模型的发展。
TableGPT2-7B 是由浙江大学开发的大规模解码器模型,专门用于处理数据密集型任务,尤其是表格数据的解读和分析。该模型基于 Qwen2.5 架构,通过持续预训练(CPT)和监督微调(SFT)优化,能够处理复杂的表格查询和商业智能(BI)应用。它支持中文查询,适合需要高效处理结构化数据的企业和研究机构。模型目前免费开源,未来可能会推出更专业的版本。
MoBA(Mixture of Block Attention)是一种创新的注意力机制,专为长文本上下文的大语言模型设计。它通过将上下文划分为块,并让每个查询令牌学习关注最相关的块,从而实现高效的长序列处理。MoBA 的主要优点是能够在全注意力和稀疏注意力之间无缝切换,既保证了性能,又提高了计算效率。该技术适用于需要处理长文本的任务,如文档分析、代码生成等,能够显著降低计算成本,同时保持模型的高性能表现。MoBA 的开源实现为研究人员和开发者提供了强大的工具,推动了大语言模型在长文本处理领域的应用。
MNN 大模型 Android App 是阿里巴巴开发的一款基于大语言模型(LLM)的安卓应用。它支持多种模态输入和输出,包括文本生成、图像识别、音频转录等。该应用通过优化推理性能,确保在移动设备上高效运行,同时保护用户数据隐私,所有处理均在本地完成。它支持多种领先的模型提供商,如 Qwen、Gemma、Llama 等,适用于多种场景。
Baichuan-M1-14B 是由百川智能开发的开源大语言模型,专为医疗场景优化。它基于20万亿token的高质量医疗与通用数据训练,覆盖20多个医疗科室,具备强大的上下文理解和长序列任务表现能力。该模型在医疗领域表现出色,同时在通用任务中也达到了同尺寸模型的效果。其创新的模型结构和训练方法使其在医疗推理、病症判断等复杂任务中表现出色,为医疗领域的人工智能应用提供了强大的支持。
Doubao-1.5-pro 是由豆包团队开发的高性能稀疏 MoE(Mixture of Experts)大语言模型。该模型通过训练-推理一体化设计,实现了模型性能与推理性能的极致平衡。它在多个公开评测基准上表现出色,尤其在推理效率和多模态能力方面具有显著优势。该模型适用于需要高效推理和多模态交互的场景,如自然语言处理、图像识别和语音交互等。其技术背景基于稀疏激活的 MoE 架构,通过优化激活参数比例和训练算法,实现了比传统稠密模型更高的性能杠杆。此外,该模型还支持动态调整参数,以适应不同的应用场景和成本需求。
PaSa 是由字节跳动开发的一种先进学术论文搜索代理,基于大语言模型(LLM)技术,能够自主调用搜索工具、阅读论文并筛选相关参考文献,以获取复杂学术查询的全面准确结果。该技术通过强化学习优化,使用合成数据集 AutoScholarQuery 进行训练,并在真实世界查询数据集 RealScholarQuery 上表现出色,显著优于传统搜索引擎和基于 GPT 的方法。PaSa 的主要优势在于其高召回率和精准率,能够为研究人员提供更高效的学术搜索体验。
VITA-1.5 是一款开源的多模态大语言模型,旨在实现接近实时的视觉和语音交互。它通过显著降低交互延迟和提升多模态性能,为用户提供更流畅的交互体验。该模型支持英语和中文,适用于多种应用场景,如图像识别、语音识别和自然语言处理等。其主要优点包括高效的语音处理能力和强大的多模态理解能力。
InternVL2-8B-MPO是一个多模态大语言模型(MLLM),通过引入混合偏好优化(MPO)过程,增强了模型的多模态推理能力。该模型在数据方面设计了自动化的偏好数据构建管线,并构建了MMPR这一大规模多模态推理偏好数据集。在模型方面,InternVL2-8B-MPO基于InternVL2-8B初始化,并使用MMPR数据集进行微调,展现出更强的多模态推理能力,且幻觉现象更少。该模型在MathVista上取得了67.0%的准确率,超越InternVL2-8B 8.7个点,且表现接近于大10倍的InternVL2-76B。
FlagEval是一个模型评测平台,专注于大语言模型和多模态模型的评测。它提供了一个公正、透明的环境,让不同的模型在同一标准下进行比较,帮助研究者和开发者了解模型性能,推动人工智能技术的发展。该平台涵盖了对话模型、视觉语言模型等多种模型类型,支持开源和闭源模型的评测,并提供专项评测如K12学科测验和金融量化交易评测。
卡卡字幕助手(VideoCaptioner)是一款功能强大的视频字幕配制软件,利用大语言模型进行字幕智能断句、校正、优化、翻译,实现字幕视频全流程一键处理。产品无需高配置,操作简单,内置基础LLM模型,保证开箱即用,且消耗模型Token少,适合视频制作者和内容创作者。
FakeShield是一个多模态框架,旨在解决图像检测和定位(IFDL)领域中的两个主要挑战:检测原理的黑箱性和在不同篡改方法间的有限泛化能力。FakeShield通过利用GPT-4o增强现有的IFDL数据集,创建了多模态篡改描述数据集(MMTD-Set),用于训练FakeShield的篡改分析能力。该框架包括领域标签引导的可解释检测模块(DTE-FDM)和定位模块(MFLM),能够处理各种类型的篡改检测解释,并实现由详细文本描述引导的定位。FakeShield在检测准确性和F1分数上优于其他方法,提供了一个可解释且优越的解决方案。
awesome-LLM-resourses是一个汇总了全球大语言模型(LLM)资源的平台,提供了从数据获取、微调、推理、评估到实际应用等一系列资源和工具。它的重要性在于为研究人员和开发者提供了一个全面的资源库,以便于他们能够更高效地开发和优化自己的语言模型。该平台由王荣胜维护,持续更新,为LLM领域的发展提供了强有力的支持。
VirtualWife是一个虚拟数字人项目,旨在打造一个拥有自己“灵魂”的虚拟伴侣。该项目支持B站直播,并且兼容openai、ollama等大语言模型。VirtualWife不仅能够提供情感陪伴,还能作为恋爱导师和心理咨询师,满足人类的情感需求。项目处于孵化阶段,作者投入了大量的业余时间进行开发,希望用户能够通过点star来支持项目的发展。
Open O1是一个开源项目,旨在通过开源创新,匹配专有的强大O1模型能力。该项目通过策划一组O1风格的思考数据,用于训练LLaMA和Qwen模型,赋予了这些较小模型更强大的长期推理和解决问题的能力。随着Open O1项目的推进,我们将继续推动大型语言模型的可能性,我们的愿景是创建一个不仅能够实现类似O1的性能,而且在测试时扩展性方面也处于领先地位的模型,使高级AI能力为所有人所用。通过社区驱动的开发和对道德实践的承诺,Open O1将成为AI进步的基石,确保技术的未来发展是开放的,并对所有人有益。
Diabetica是一个专门针对糖尿病治疗和护理而开发的高级语言模型。它通过深度学习和大数据分析,能够提供包括诊断、治疗建议、药物管理、生活方式建议和患者教育在内的多种服务。Diabetica的模型Diabetica-7B和Diabetica-1.5B在多个糖尿病相关任务上展示了卓越的性能,并且提供了一个可复现的框架,使得其他医学领域也能受益于此类AI技术。
WaveCoder是由微软亚洲研究院开发的代码大语言模型,通过指令微调增强代码大语言模型的广泛性和多功能性。它在代码摘要、生成、翻译、修复等多个编程任务上展现出卓越的性能。WaveCoder的创新之处在于其使用的数据合成框架和两阶段指令数据生成策略,确保了数据的高质量和多样性。该模型的开源,为开发者提供了一个强大的编程辅助工具,有助于提高开发效率和代码质量。
RD-Agent是微软亚洲研究院推出的一款自动化研究与开发工具,依托大语言模型的强大能力,开创了以人工智能驱动R&D流程自动化的新模式。它通过整合数据驱动的R&D系统,可以借助人工智能能力驱动创新与开发的自动化,不仅提高了研发效率,还利用智能化的决策和反馈机制,为未来的跨领域创新与知识迁移提供了无限可能。
PresentationGen是一个基于SpringBoot框架开发的Web应用程序,它通过集成大语言模型(LLM)来自动化生成PPT文件。该技术通过预处理大量单页模板,并在用户使用时根据需求实时组合,实现快速生成PPTX文件。它支持文本替换,使得生成的演示文稿更加个性化和专业。该产品主要面向需要快速制作演示文稿的用户,如商务人士、教育工作者和设计师,帮助他们节省时间并提高工作效率。
汉王天地大模型是汉王科技推出的一款专注于人工智能领域的大语言模型,拥有30年的行业积累。它能够实现多轮对话,高效处理任务,并深耕办公、教育、人文等多个垂直细分领域。该模型通过从人类反馈中进行强化学习,不断优化自身智能,提供包括智能校对、自动翻译、法律咨询、绘画生成、文案生成等在内的多样化服务,以赋能法律、人文、办公、教育、医养等行业,提升效率和创意。
AMchat是一个集成了数学知识和高等数学习题及其解答的大语言模型。它基于InternLM2-Math-7B模型,通过xtuner微调,专门设计用于解答高等数学问题。该项目在2024浦源大模型系列挑战赛(春季赛)中获得Top12和创新创意奖,体现了其在高等数学领域的专业能力和创新性。
Index-1.9B系列是哔哩哔哩公司自主研发的轻量级大语言模型,包含多种版本,如base、pure、chat和character等,适用于中英文为主的语料预训练,并在多个评测基准上表现优异。模型支持SFT和DPO对齐,以及RAG技术实现角色扮演定制,适用于对话生成、角色扮演等场景。
AIGCRank大语言模型API价格对比是一个专门汇总和比较全球主要AI模型提供商的价格信息的工具。它为用户提供最新的大语言模型(LLM)的价格数据,包括一些免费的AI大模型API。通过这个平台,用户可以轻松查找和比较OpenAI、Claude、Mixtral、Kimi、星火大模型、通义千问、文心一语、Llama 3、GPT-4、AWS和Google等国内外主要API提供商的最新价格,确保找到最适合自己项目的模型定价。
HuggingChat是一款iOS应用程序,旨在促进用户与多家提供商(如Mistral AI、Meta和Google)的多个顶尖大型语言模型之间的无缝沟通。它可以满足多种场景需求:激发创意,提供专家指导,促进教育与自我提升,提高工作效率,快速响应日常问题等。作为变革性AI技术的先锋采用者,HuggingChat将让您体验与先进大语言模型对话的无限可能。
MA-LMM是一种基于大语言模型的大规模多模态模型,主要针对长期视频理解进行设计。它采用在线处理视频的方式,并使用记忆库存储过去的视频信息,从而可以在不超过语言模型上下文长度限制或GPU内存限制的情况下,参考历史视频内容进行长期分析。MA-LMM可以无缝集成到当前的多模态语言模型中,并在长视频理解、视频问答和视频字幕等任务上取得了领先的性能。
Google开发的“Infini-attention”技术旨在扩展基于Transformer的大语言模型以处理无限长的输入,通过压缩记忆机制实现无限长输入处理,并在多个长序列任务上取得优异表现。技术方法包括压缩记忆机制、局部与长期注意力的结合和流式处理能力等。实验结果显示在长上下文语言建模、密钥上下文块检索和书籍摘要任务上的性能优势。
MoMA Personalization 是一款基于开源 Multimodal Large Language Model (MLLM) 的个性化图像生成工具。它专注于主题驱动的个性化图像生成,可以根据参考图像和文本提示生成高质量、保留目标物体特征的图像。MoMA 不需要任何 fine-tuning,是一个插件式的模型,可以直接应用于现有的 diffusion 模型中,并在保留原模型性能的同时提高生成图像的细节和 prompt 忠实度。
mPLUG-DocOwl 是一款用于文档理解的模块化多模态大语言模型,能够处理 OCR-free 文档理解任务。该模型具有出色的性能表现,支持文档视觉问答、信息问答、图表问答等多种任务。用户可以通过模型提供的在线演示来体验其强大功能。
Polaris是由Hippocratic AI 开发的一款高度专注于安全、用于医疗保健的大语言模型(LLM)系统,通过星座架构和专业支持代理组合,能够执行多项医疗相关的复杂任务。产品定位于提供与患者长时间、多轮次的语音对话,并提供专业准确的医疗建议。价格方面,按小时计费,每小时9美元。主要功能包括实时多轮语音对话、医疗信息提供和解释、隐私与合规性检查、药物管理和咨询、实验室与生命体征分析、营养建议、病历和政策查询、患者关系建设等。
Search4All是一个基于大语言模型的问答系统。它可以回答各种问题,包括事实性问题、解释性问题、分析问题等。该系统使用先进的自然语言处理技术,能够深入理解问题的含义并给出准确的答复。它具有广泛的知识储备,涵盖了历史、地理、科学、艺术、体育等多个领域。同时,它还具备一定的推理和分析能力,可以对复杂问题进行逻辑分析和建议性回答。使用Search4All可以帮助用户快速获取所需信息,提高工作效率。
这个GitHub仓库是一个集中存放生成式人工智能相关资源的中心,包括每月最新研究论文、面试题库、课程材料、代码笔记本等。内容定期更新,旨在让开发者及从业人员能够及时跟进最新进展,提高生产力。主要资源包括论文摘要、面试问题分类、免费课程列表、开源笔记本等,还包括一些使用场景和范例。
达观 “曹植” 大模型是专注于长文本、多语言、垂直化发展的国产大语言模型。具有自动化写作、翻译、专业性报告写作能力,支持多语言应用和垂直行业定制。可提供高质量文案撰写服务,广泛适用于各行业,是解决企业实际问题的智能工具。
ZeroTrusted.ai是一家先驱性的公司,专门从事生成式人工智能安全领域。他们的LLM防火墙产品旨在保护您免受由于语言模型训练数据集可能包含您的敏感信息而带来的数据曝光和被不道德的语言模型提供商或恶意行为者利用的风险。该产品提供匿名功能以保护提示语隐私,通过ztPolicyServer和ztDataPrivacy确保数据安全和隐私,优化提示语和验证结果以提高准确性并防止模型编造,并支持与LangChain、Zapier等多种工具集成。该产品分为免费版、标准版、商业版和企业版等多个定价方案,功能和服务级别有所不同。ZeroTrusted.ai致力于简化安全合规,通过云无关的零信任解决方案、动态自适应加密等技术最大程度地保护应用程序和数据。
Mobile-Agent是一款自主多模移动设备代理,利用多模大语言模型(MLLM)技术,首先利用视觉感知工具准确识别和定位应用程序前端界面中的视觉和文字元素。基于感知的视觉环境,它自主规划和分解复杂操作任务,并通过逐步操作来导航移动应用程序。与之前依赖于应用程序的XML文件或移动系统元数据的解决方案不同,Mobile-Agent以视觉为中心的方式在各种移动操作环境中具有更大的适应性,从而消除了对特定系统定制的必要性。为了评估Mobile-Agent的性能,我们引入了Mobile-Eval,这是一个用于评估移动设备操作的基准。基于Mobile-Eval,我们对Mobile-Agent进行了全面评估。实验结果表明,Mobile-Agent实现了显着的准确性和完成率。即使在具有挑战性的指令下,例如多应用程序操作,Mobile-Agent仍然可以完成要求。
E^2-LLM是一种高效极限扩展的大语言模型方法,通过仅需一次训练过程和大幅降低的计算成本,实现了对长上下文任务的有效支持。该方法采用了RoPE位置嵌入,并引入了两种不同的增强方法,旨在使模型在推理时更具鲁棒性。在多个基准数据集上的综合实验结果证明了E^2-LLM在挑战性长上下文任务上的有效性。
M2UGen是一个结合大语言模型的多模态音乐理解和生成框架,旨在帮助用户进行音乐创作。它能同时完成音乐理解和多模态音乐生成任务。
LLM Maybe LongLM是一个面向开发者和研究人员的人工智能平台,提供各种模型、数据集和解决方案。其中,LLM Maybe LongLM是针对大语言模型长上下文处理的研究成果,通过自我扩展实现了对长上下文的处理能力。该方法无需训练,只需对原始模型进行少量代码修改即可扩展上下文窗口,为处理长文本提供了有效的解决方案。
Ollama是一款本地大语言模型工具,让用户能够快速运行Llama 2、Code Llama和其他模型。用户可以自定义和创建他们自己的模型。Ollama目前支持macOS和Linux,Windows版本即将推出。该产品定位于为用户提供本地化的大语言模型运行环境,以满足用户个性化的需求。
TrackGPTs是一个GPT跟踪和分析平台,通过跟踪社交媒体和其他渠道持续发现新的GPT,并提供丰富的指标分析每个GPT的表现,还能分析GPT的历史数据,追踪其增长情况,帮助用户全面了解GPT市场的最新动态。
Denser Chatbots可以利用您的个人网站或上传的文件创建聊天机器人。Denser采用先进技术处理您的数据,并使用大型语言模型从您的特定数据中提取见解来回答您的查询。使用Retrieval Augmented Generation (RAG)方法,Denser Chatbots能够生成基于您独有的知识库的答案,提供比标准大型语言模型更个性化和相关的响应。构建和部署Denser Chatbots非常简单,只需提供您的网站URL,即可开始构建和部署,无需任何编程技能。
GitLab Duo Chat是GitLab的AI对话助手,可以帮助用户提问并获取GitLab相关信息。它使用大语言模型,可以处理自然语言问题并提供回答。
AutoGen 是一个基于多代理对话框架的下一代大语言模型应用程序。它简化了复杂 LLM 工作流的编排、自动化和优化,最大化了 LLM 模型的性能并克服了其弱点。AutoGen 支持多种复杂对话模式,具有可自定义和可对话的代理,开发人员可以使用 AutoGen 构建各种对话模式。
提示工程指南是一份全面介绍提示工程的指南,包括基本概念、设计提示的通用技巧、提示技术、提示应用等内容。它帮助用户更好地了解大型语言模型的能力和局限性,并掌握与大语言模型交互和研发的各种技能和技术。
Brainglue是一个大型语言模型的实验平台,让任何人都可以构建强大的提示链来解决复杂的生成式AI问题。Brainglue提供了一个直观的AI游乐场,使得制作和实现提示链变得轻而易举。用户可以通过调整上下文窗口和温度设置,来实验不同的AI配置。Brainglue支持GPT-3.5、GPT-4等多种前沿AI模型,并计划很快增加更多模型支持。用户可以定义全局变量,在提示链中动态赋值使用。Brainglue支持在提示链中使用AI的响应来告知下一个提示,实现更复杂和合理的输出。Brainglue提供了提示链的模版库,增强了AI的推理能力。
孟子生成式大模型(孟子 GPT)是一个面向生成场景的可控大语言模型,能够通过多轮的方式帮助用户完成特定场景中的多种工作任务。它支持知识问答、多语言翻译、通用写作和金融场景任务等功能,具有更可控、更灵活、更个性、更专业的优势。具体定价和使用方式请咨询官方网站。