💻 编程

PokemonGym

PokemonGym 是一个基于服务器 - 客户端架构的平台,专为 AI 代理设计,能够在 Pokemon Red 游戏中进行评估和训练。它通过 FastAPI 提供游戏状态,支持人类与 AI 代理的互动,帮助研究人员和开发者测试和改进 AI 解决方案。

#AI
#游戏
#评估
#仿真
#宝可梦
定价: 免费
PokemonGym

产品详情

用于评估 AI 代理在 Pokemon Red 游戏中的表现。

主要功能

1
FastAPI 服务器管理 Pokemon Red 的仿真与状态。
2
提供人类用户界面,允许玩家通过键盘控制游戏。
3
实现由 Claude 提供支持的自动 AI 代理。
4
拥有评估系统,根据进度(如捕捉宝可梦、获得徽章等)进行打分。
5
状态管理功能,支持游戏状态的保存与加载,方便用户继续游戏。

使用教程

1
克隆代码库到本地。
2
安装必要的依赖项和配置环境。
3
将 Pokemon Red ROM 文件放置在根目录。
4
启动评估服务器,运行游戏。
5
选择人类玩家或 AI 代理进行游戏。

使用示例

AI 代理在游戏中自主捕捉宝可梦并获取徽章。

人类玩家通过 UI 界面与游戏互动,进行挑战。

研究人员使用平台评估不同 AI 算法在游戏中的表现。

快速访问

访问官网 →

所属分类

💻 编程
› 模型训练与部署
› 游戏生成

相关推荐

发现更多类似的优质AI工具

AgentSphere

AgentSphere

AgentSphere是专为AI代理设计的云基础设施,提供安全的代码执行和文件处理,支持各种AI工作流。其内置功能包括AI数据分析、生成数据可视化、安全虚拟桌面代理等,旨在支持复杂工作流程、DevOps集成和LLM评估与微调。

AI 数据可视化
💻 编程
Seed-Coder

Seed-Coder

Seed-Coder 是字节跳动 Seed 团队推出的开源代码大型语言模型系列,包含基础、指令和推理模型,旨在通过最小的人力投入,自主管理代码训练数据,从而显著提升编程能力。该模型在同类开源模型中表现优越,适合于各种编码任务,定位于推动开源 LLM 生态的发展,适用于研究和工业界。

开源 代码生成
💻 编程
Agent-as-a-Judge

Agent-as-a-Judge

Agent-as-a-Judge 是一种新型的自动化评估系统,旨在通过代理系统的互相评估来提高工作效率和质量。该产品能够显著减少评估时间和成本,同时提供持续的反馈信号,促进代理系统的自我改进。它被广泛应用于 AI 开发任务中,特别是在代码生成领域。该系统具备开源特性,便于开发者进行二次开发和定制。

AI 开源
💻 编程
Search-R1

Search-R1

Search-R1 是一个强化学习框架,旨在训练能够进行推理和调用搜索引擎的语言模型(LLMs)。它基于 veRL 构建,支持多种强化学习方法和不同的 LLM 架构,使得在工具增强的推理研究和开发中具备高效性和可扩展性。

自然语言处理 开源
💻 编程
automcp

automcp

automcp 是一个开源工具,旨在简化将各种现有代理框架(如 CrewAI、LangGraph 等)转换为 MCP 服务器的过程。这使得开发者可以通过标准化接口更容易地访问这些服务器。该工具支持多种代理框架的部署,并且通过易于使用的 CLI 界面进行操作。适合需要快速集成和部署 AI 代理的开发者,价格免费,适合个人和团队使用。

AI 开源
💻 编程
Pruna

Pruna

Pruna 是一个为开发者设计的模型优化框架,通过一系列压缩算法,如量化、修剪和编译等技术,使得机器学习模型在推理时更快、体积更小且计算成本更低。产品适用于多种模型类型,包括 LLMs、视觉转换器等,且支持 Linux、MacOS 和 Windows 等多个平台。Pruna 还提供了企业版 Pruna Pro,解锁更多高级优化功能和优先支持,助力用户在实际应用中提高效率。

机器学习 深度学习
💻 编程
Bytedance Flux

Bytedance Flux

Flux 是由字节跳动开发的一个高性能通信重叠库,专为 GPU 上的张量和专家并行设计。它通过高效的内核和对 PyTorch 的兼容性,支持多种并行化策略,适用于大规模模型训练和推理。Flux 的主要优点包括高性能、易于集成和对多种 NVIDIA GPU 架构的支持。它在大规模分布式训练中表现出色,尤其是在 Mixture-of-Experts (MoE) 模型中,能够显著提高计算效率。

深度学习 高性能计算
💻 编程
AoT

AoT

Atom of Thoughts (AoT) 是一种新型推理框架,通过将解决方案表示为原子问题的组合,将推理过程转化为马尔可夫过程。该框架通过分解和收缩机制,显著提升了大语言模型在推理任务上的性能,同时减少了计算资源的浪费。AoT 不仅可以作为独立的推理方法,还可以作为现有测试时扩展方法的插件,灵活结合不同方法的优势。该框架开源且基于 Python 实现,适合研究人员和开发者在自然语言处理和大语言模型领域进行实验和应用。

开源 Python
💻 编程
3FS

3FS

3FS是一个专为AI训练和推理工作负载设计的高性能分布式文件系统。它利用现代SSD和RDMA网络,提供共享存储层,简化分布式应用开发。其核心优势在于高性能、强一致性和对多种工作负载的支持,能够显著提升AI开发和部署的效率。该系统适用于大规模AI项目,尤其在数据准备、训练和推理阶段表现出色。

AI 机器学习
💻 编程
DeepSeek-V3/R1 推理系统

DeepSeek-V3/R1 推理系统

DeepSeek-V3/R1 推理系统是 DeepSeek 团队开发的高性能推理架构,旨在优化大规模稀疏模型的推理效率。它通过跨节点专家并行(EP)技术,显著提升 GPU 矩阵计算效率,降低延迟。该系统采用双批量重叠策略和多级负载均衡机制,确保在大规模分布式环境中高效运行。其主要优点包括高吞吐量、低延迟和优化的资源利用率,适用于高性能计算和 AI 推理场景。

高性能计算 负载均衡
💻 编程
Thunder Compute

Thunder Compute

Thunder Compute是一个专注于AI/ML开发的GPU云服务平台,通过虚拟化技术,帮助用户以极低的成本使用高性能GPU资源。其主要优点是价格低廉,相比传统云服务提供商可节省高达80%的成本。该平台支持多种主流GPU型号,如NVIDIA Tesla T4、A100等,并提供7+ Gbps的网络连接,确保数据传输的高效性。Thunder Compute的目标是为AI开发者和企业降低硬件成本,加速模型训练和部署,推动AI技术的普及和应用。

AI 机器学习
💻 编程
TensorPool

TensorPool

TensorPool 是一个专注于简化机器学习模型训练的云 GPU 平台。它通过提供一个直观的命令行界面(CLI),帮助用户轻松描述任务并自动处理 GPU 的编排和执行。TensorPool 的核心技术包括智能的 Spot 节点恢复技术,能够在抢占式实例被中断时立即恢复作业,从而结合了抢占式实例的成本优势和按需实例的可靠性。此外,TensorPool 还通过实时多云分析选择最便宜的 GPU 选项,用户只需为实际执行时间付费,无需担心闲置机器带来的额外成本。TensorPool 的目标是让开发者无需花费大量时间配置云提供商,从而提高机器学习工程的速度和效率。它提供个人计划和企业计划,个人计划每周提供 $5 的免费信用额度,而企业计划则提供更高级的支持和功能。

自动化 机器学习
💻 编程
MLGym

MLGym

MLGym是由Meta的GenAI团队和UCSB NLP团队开发的一个开源框架和基准,用于训练和评估AI研究代理。它通过提供多样化的AI研究任务,推动强化学习算法的发展,帮助研究人员在真实世界的研究场景中训练和评估模型。该框架支持多种任务,包括计算机视觉、自然语言处理和强化学习等领域,旨在为AI研究提供一个标准化的测试平台。

自然语言处理 计算机视觉
💻 编程
DeepEP

DeepEP

DeepEP 是一个专为混合专家模型(MoE)和专家并行(EP)设计的通信库。它提供了高吞吐量和低延迟的全连接 GPU 内核,支持低精度操作(如 FP8)。该库针对非对称域带宽转发进行了优化,适合训练和推理预填充任务。此外,它还支持流处理器(SM)数量控制,并引入了一种基于钩子的通信-计算重叠方法,不占用任何 SM 资源。DeepEP 的实现虽然与 DeepSeek-V3 论文略有差异,但其优化的内核和低延迟设计使其在大规模分布式训练和推理任务中表现出色。

深度学习 低延迟
💻 编程
FlexHeadFA

FlexHeadFA

FlexHeadFA 是一个基于 FlashAttention 的改进模型,专注于提供快速且内存高效的精确注意力机制。它支持灵活的头维度配置,能够显著提升大语言模型的性能和效率。该模型的主要优点包括高效利用 GPU 资源、支持多种头维度配置以及与 FlashAttention-2 和 FlashAttention-3 兼容。它适用于需要高效计算和内存优化的深度学习场景,尤其在处理长序列数据时表现出色。

自然语言处理 深度学习
💻 编程
FlashMLA

FlashMLA

FlashMLA 是一个针对 Hopper GPU 优化的高效 MLA 解码内核,专为变长序列服务设计。它基于 CUDA 12.3 及以上版本开发,支持 PyTorch 2.0 及以上版本。FlashMLA 的主要优势在于其高效的内存访问和计算性能,能够在 H800 SXM5 上实现高达 3000 GB/s 的内存带宽和 580 TFLOPS 的计算性能。该技术对于需要大规模并行计算和高效内存管理的深度学习任务具有重要意义,尤其是在自然语言处理和计算机视觉领域。FlashMLA 的开发灵感来源于 FlashAttention 2&3 和 cutlass 项目,旨在为研究人员和开发者提供一个高效的计算工具。

自然语言处理 深度学习
💻 编程