Herramientas 強化學習 sin costo

Accede a herramientas 強化學習 gratuitas y versátiles, ideales para tareas personales y profesionales.

強化學習

  • Un entorno Python Pygame para desarrollar y probar agentes de conducción autónoma por refuerzo en pistas personalizables.
    0
    0
    ¿Qué es SelfDrivingCarSimulator?
    SelfDrivingCarSimulator es un marco Python liviano basado en Pygame que ofrece un entorno de conducción 2D para entrenar agentes de vehículos autónomos usando aprendizaje por refuerzo. Soporta diseños de pistas personalizables, modelos de sensores configurables (como LiDAR y cámaras), visualización en tiempo real y registro de datos para análisis de rendimiento. Los desarrolladores pueden integrar sus algoritmos RL, ajustar parámetros físicos y monitorear métricas como velocidad, tasa de colisiones y funciones de recompensa para avanzar rápidamente en proyectos de investigación y educación en conducción autónoma.
  • Un marco de trabajo en Python que permite el diseño, la simulación y el aprendizaje por refuerzo de sistemas multiagente cooperativos.
    0
    0
    ¿Qué es MultiAgentModel?
    MultiAgentModel proporciona una API unificada para definir entornos personalizados y clases de agentes para escenarios multiagentes. Los desarrolladores pueden especificar espacios de observación y acción, estructuras de recompensa y canales de comunicación. La compatibilidad con algoritmos RL populares como PPO, DQN y A2C permite entrenar con una configuración mínima. Las herramientas de visualización en tiempo real ayudan a monitorear las interacciones de los agentes y las métricas de rendimiento. La arquitectura modular garantiza una fácil integración de nuevos algoritmos y módulos personalizados. También incluye un sistema de configuración flexible para ajuste de hiperparámetros, utilidades de registro para seguimiento de experimentos y compatibilidad con entornos OpenAI Gym para portabilidad sin problemas. Los usuarios pueden colaborar en entornos compartidos y reproducir sesiones registradas para análisis.
  • Un marco de trabajo Python de código abierto que presenta agentes IA basados en Pacman para implementar algoritmos de búsqueda, adversariales y de aprendizaje por refuerzo.
    0
    0
    ¿Qué es Berkeley Pacman Projects?
    El repositorio Berkeley Pacman Projects ofrece una base de código Python modular donde los usuarios construyen y prueban agentes IA en un laberinto de Pacman. Guía a los aprendices a través de la búsqueda no informada e informada (DFS, BFS, A*), búsqueda adversarial multiactores (minimax, poda alfa-beta) y aprendizaje por refuerzo (Q-learning con extracción de características). Interfaces gráficas integradas visualizan el comportamiento de los agentes en tiempo real, mientras que los casos de prueba integrados y el autocalificador verifican la corrección. Al iterar sobre las implementaciones de algoritmos, los usuarios adquieren experiencia práctica en exploración del espacio de estados, diseño heurístico, razonamiento adversarial y aprendizaje basado en recompensas dentro de un marco de juego unificado.
  • BomberManAI es un agente de IA basado en Python que navega y combate de forma autónoma en entornos de juego Bomberman utilizando algoritmos de búsqueda.
    0
    0
    ¿Qué es BomberManAI?
    BomberManAI es un agente de IA diseñado para jugar de manera autónoma el clásico juego Bomberman. Desarrollado en Python, interactúa con un entorno de juego para percibir en tiempo real el estado del mapa, movimientos disponibles y posiciones de los oponentes. El algoritmo principal combina búsqueda A*, búsqueda en amplitud para análisis de alcanzabilidad y una función heurística de evaluación para determinar la mejor ubicación para colocar bombas y estrategias de evasión. El agente maneja obstáculos dinámicos, potenciadores y múltiples oponentes en diferentes disposiciones del mapa. Su arquitectura modular permite a los desarrolladores experimentar con heurísticas personalizadas, módulos de aprendizaje por refuerzo o estrategias de decisión alternativas. Ideal para investigadores en IA de juegos, estudiantes o desarrolladores de bots competitivos, BomberManAI proporciona un marco flexible para probar y mejorar agentes autónomos en juegos.
  • Marco de trabajo de código abierto basado en PyTorch que implementa la arquitectura CommNet para el aprendizaje por refuerzo multiagente con comunicación entre agentes que permite decisiones colaborativas.
    0
    0
    ¿Qué es CommNet?
    CommNet es una biblioteca orientada a la investigación que implementa la arquitectura CommNet, permitiendo que múltiples agentes compartan estados ocultos en cada paso temporal y aprendan a coordinar acciones en entornos cooperativos. Incluye definiciones de modelos en PyTorch, scripts de entrenamiento y evaluación, envoltorios para entornos OpenAI Gym y utilidades para personalizar canales de comunicación, conteo de agentes y profundidades de red. Investigadores y desarrolladores pueden usar CommNet para prototipar y evaluar estrategias de comunicación entre agentes en tareas de navegación, persecución-salvación y recolección de recursos.
  • Una biblioteca de entornos de aprendizaje por refuerzo personalizable para evaluar agentes AI en tareas de procesamiento y análisis de datos.
    0
    0
    ¿Qué es DataEnvGym?
    DataEnvGym proporciona una colección de entornos modulares y personalizables construidos sobre la API Gym para facilitar la investigación en aprendizaje por refuerzo en dominios impulsados por datos. Los investigadores y ingenieros pueden seleccionar entre tareas integradas como limpieza de datos, ingeniería de características, programación por lotes y análisis en streaming. El marco soporta una integración perfecta con bibliotecas RL populares, métricas de evaluación estandarizadas y herramientas de registro para seguir el rendimiento de los agentes. Los usuarios pueden extender o combinar entornos para modelar pipelines de datos complejos y evaluar algoritmos bajo restricciones realistas.
  • Una plataforma basada en Java que permite el desarrollo, simulación y despliegue de sistemas de agentes inteligentes con capacidades de comunicación, negociación y aprendizaje.
    0
    0
    ¿Qué es IntelligentMASPlatform?
    La plataforma IntelligentMASPlatform se construye para acelerar el desarrollo y despliegue de sistemas multi-agente ofreciendo una arquitectura modular con capas distintas para agentes, entornos y servicios. Los agentes se comunican usando mensajería ACL compatible con FIPA, lo que permite negociaciones y coordinación dinámica. La plataforma incluye un simulador de entornos versátil que permite modelar escenarios complejos, programar tareas de agentes y visualizar interacciones en tiempo real a través de un tablero integrado. Para comportamientos avanzados, integra módulos de aprendizaje por refuerzo y soporta plugins de comportamiento personalizados. Las herramientas de despliegue permiten empaquetar agentes en aplicaciones independientes o redes distribuidas. Además, la API de la plataforma facilita la integración con bases de datos, dispositivos IoT o servicios de IA de terceros, haciéndola adecuada para investigación, automatización industrial y casos de uso en ciudades inteligentes.
  • Un marco de trabajo en PyTorch que permite a los agentes aprender protocolos de comunicación emergentes en tareas de aprendizaje por refuerzo multiagente.
    0
    0
    ¿Qué es Learning-to-Communicate-PyTorch?
    Este repositorio implementa comunicación emergente en aprendizaje por refuerzo multiagente usando PyTorch. Los usuarios pueden configurar redes neuronales para emisores y receptores para jugar a juegos referenciales o navegación cooperativa, fomentando que los agentes desarrollen un canal de comunicación discreto o continuo. Incluye scripts para entrenamiento, evaluación y visualización de protocolos aprendidos, además de utilidades para crear entornos, codificar y decodificar mensajes. Los investigadores pueden extenderlo con tareas personalizadas, modificar arquitecturas de red y analizar la eficiencia del protocolo, promoviendo experimentos rápidos en comunicación emergente de agentes.
  • Simula negociaciones dinámicas en comercio electrónico utilizando agentes AI personalizables de comprador y vendedor con protocolos de negociación y visualización.
    0
    0
    ¿Qué es Multi-Agent-Seller?
    Multi-Agent-Seller proporciona un entorno modular para simular negociaciones comerciales con agentes AI. Incluye agentes preconstruidos de comprador y vendedor con estrategias de negociación personalizables, como precios dinámicos, concesiones basadas en el tiempo y decisiones basadas en utilidad. Los usuarios pueden definir protocolos, formatos de mensaje y condiciones de mercado personalizados. El framework gestiona sesiones, seguimiento de ofertas y registros de resultados con herramientas de visualización integradas para analizar interacciones de agentes. Se integra fácilmente con bibliotecas de aprendizaje automático para desarrollo de estrategias, permitiendo experimentar con aprendizaje por refuerzo o agentes basados en reglas. Su arquitectura extensible permite añadir nuevos tipos de agentes, reglas de negociación y plugins de visualización. Multi-Agent-Seller es ideal para probar algoritmos multiagente, estudiar comportamientos de negociación y enseñar conceptos en AI y comercio electrónico.
  • NeuralABM entrena agentes impulsados por redes neuronales para simular comportamientos y entornos complejos en escenarios de modelado basado en agentes.
    0
    0
    ¿Qué es NeuralABM?
    NeuralABM es una biblioteca de código abierto en Python que aprovecha PyTorch para integrar redes neuronales en el modelado basado en agentes. Los usuarios pueden especificar arquitecturas de agentes como módulos neuronales, definir dinámicas del entorno y entrenar comportamientos de agentes mediante retropropagación en pasos de simulación. El framework soporta señales de recompensa personalizadas, aprendizaje por currículo y actualizaciones síncronas o asíncronas, permitiendo estudiar fenómenos emergentes. Con utilidades para registro, visualización y exportación de conjuntos de datos, investigadores y desarrolladores pueden analizar el rendimiento de los agentes, depurar modelos y iterar en el diseño de simulaciones. NeuralABM simplifica la combinación de aprendizaje por refuerzo con ABM para aplicaciones en ciencias sociales, economía, robótica y comportamientos de NPC en juegos impulsados por IA. Ofrece componentes modulares para personalizar entornos, soporta interacciones multi-agente y proporciona hooks para integrar conjuntos de datos externos o API en simulaciones del mundo real. El diseño abierto fomenta la reproducibilidad y colaboración mediante una configuración clara de experimentos y la integración con control de versiones.
  • Un marco de código abierto que permite el entrenamiento, despliegue y evaluación de modelos de aprendizaje por refuerzo multiagente para tareas cooperativas y competitivas.
    0
    0
    ¿Qué es NKC Multi-Agent Models?
    NKC Modelos Multi-Agente proporciona a investigadores y desarrolladores un conjunto completo de herramientas para diseñar, entrenar y evaluar sistemas de aprendizaje por refuerzo multiagente. Presenta una arquitectura modular donde los usuarios definen políticas de agentes personalizadas, dinámicas de entorno y estructuras de recompensa. La integración sin problemas con OpenAI Gym permite prototipado rápido, mientras que el soporte para TensorFlow y PyTorch ofrece flexibilidad en la selección de plataformas de aprendizaje. El marco incluye utilidades para reproducción de experiencias, entrenamiento centralizado con ejecución descentralizada y entrenamiento distribuido en múltiples GPU. Módulos extensivos de registro y visualización capturan métricas de rendimiento, facilitando la evaluación y ajuste de hiperparámetros. Al simplificar la configuración de escenarios cooperativos, competitivos y de motiva mixtos, NKC Modelos Multi-Agente acelera la experimentación en dominios como vehículos autónomos, enjambres robóticos y AI en juegos.
  • Un agente de aprendizaje por refuerzo de código abierto que aprende a jugar Pacman, optimizando estrategias de navegación y evitación de fantasmas.
    0
    0
    ¿Qué es Pacman AI?
    Pacman AI ofrece un entorno y un marco de agentes totalmente funcional en Python para el clásico juego de Pacman. El proyecto implementa algoritmos clave de aprendizaje por refuerzo—Q-learning e iteración de valores—para permitir que el agente aprenda políticas óptimas para la recolección de píldoras, navegación en laberintos y evasión de fantasmas. Los usuarios pueden definir funciones de recompensa personalizadas y ajustar hiperparámetros como la tasa de aprendizaje, factor de descuento y estrategia de exploración. El marco soporta registro de métricas, visualización del rendimiento y configuraciones reproducibles de experimentos. Está diseñado para facilitar su extensión, permitiendo a investigadores y estudiantes integrar nuevos algoritmos o enfoques de aprendizaje con redes neuronales y compararlos con métodos de cuadrícula tradicionales dentro del dominio de Pacman.
  • Un marco de RL que ofrece herramientas de entrenamiento y evaluación de PPO, DQN para desarrollar agentes competitivos en el juego Pommerman.
    0
    0
    ¿Qué es PommerLearn?
    PommerLearn permite a investigadores y desarrolladores entrenar bots RL multi-agente en el entorno de juego Pommerman. Incluye implementaciones listas para usar de algoritmos populares (PPO, DQN), archivos de configuración flexibles para hiperparámetros, registro automático y visualización de métricas de entrenamiento, guardado de modelos y scripts de evaluación. Su arquitectura modular facilita la extensión con nuevos algoritmos, la personalización de entornos y la integración con bibliotecas ML estándar como PyTorch.
  • Una biblioteca ligera de Python para crear entornos personalizables de cuadrícula en 2D para entrenar y probar agentes de aprendizaje por refuerzo.
    0
    0
    ¿Qué es Simple Playgrounds?
    Simple Playgrounds proporciona una plataforma modular para construir entornos interactivos en cuadrícula 2D donde los agentes pueden navegar laberintos, interactuar con objetos y completar tareas. Los usuarios definen la disposición del entorno, el comportamiento de los objetos y las funciones de recompensa mediante scripts YAML o Python sencillos. El renderizador integrado de Pygame ofrece visualización en tiempo real, mientras que una API basada en pasos garantiza una integración fluida con bibliotecas de aprendizaje por refuerzo como Stable Baselines3. Con soporte para configuraciones multiagente, detección de colisiones y parámetros físicos personalizables, Simple Playgrounds agiliza la creación de prototipos, benchmarking y demostraciones educativas de algoritmos de IA.
  • Biblioteca de código abierto con PyTorch que proporciona implementaciones modulares de agentes de aprendizaje por refuerzo como DQN, PPO, SAC y más.
    0
    0
    ¿Qué es RL-Agents?
    RL-Agents es un framework de aprendizaje por refuerzo de nivel investigación construido sobre PyTorch que agrupa algoritmos RL populares en métodos basados en valor, política y actor-crítico. La biblioteca cuenta con una API modular de agentes, aceleración por GPU, integración fluida con OpenAI Gym y herramientas integradas de registro y visualización. Los usuarios pueden configurar hiperparámetros, personalizar bucles de entrenamiento y evaluar el rendimiento con pocas líneas de código, haciendo de RL-Agents una opción ideal para investigación académica, prototipado y experimentación industrial.
  • Un marco de aprendizaje por refuerzo que permite a robots autónomos navegar y evitar colisiones en entornos multi-agente.
    0
    0
    ¿Qué es RL Collision Avoidance?
    RL Collision Avoidance proporciona una canalización completa para desarrollar, entrenar y desplegar políticas de evitación de colisiones multi-robot. Ofrece una serie de escenarios de simulación compatibles con Gym donde los agentes aprenden navegación sin colisiones mediante algoritmos de aprendizaje por refuerzo. Los usuarios pueden personalizar parámetros del entorno, aprovechar la aceleración por GPU para entrenamientos más rápidos y exportar políticas aprendidas. El marco también se integra con ROS para pruebas en el mundo real, soporta modelos preentrenados para evaluación inmediata y cuenta con herramientas para visualizar trayectorias de agentes y métricas de rendimiento.
  • El autoaprendizaje simple es una biblioteca de Python que proporciona APIs sencillas para construir, entrenar y evaluar agentes de aprendizaje por refuerzo.
    0
    0
    ¿Qué es dead-simple-self-learning?
    El autoaprendizaje simple ofrece a los desarrolladores un enfoque muy simple para crear y entrenar agentes de aprendizaje por refuerzo en Python. El marco abstrae componentes centrales del RL, como envoltorios de entorno, módulos de política y búferes de experiencia, en interfaces concisas. Los usuarios pueden inicializar rápidamente entornos, definir políticas personalizadas usando backends familiares como PyTorch o TensorFlow, y ejecutar bucles de entrenamiento con registro y guardado de puntos de control integrados. La biblioteca soporta algoritmos on-policy y off-policy, permitiendo experimentar de forma flexible con Q-learning, gradientes de políticas y métodos actor-crítico. Al reducir el código repetitivo, el autoaprendizaje simple permite a practicantes, educadores e investigadores prototipar algoritmos, probar hipótesis y visualizar el rendimiento del agente con configuración mínima. Su diseño modular también facilita la integración con pilas de ML existentes y entornos personalizados.
  • SoccerAgent utiliza aprendizaje por refuerzo multiagente para entrenar jugadores IA en simulaciones de fútbol realistas y optimización de estrategias.
    0
    0
    ¿Qué es SoccerAgent?
    SoccerAgent es un marco de IA especializado diseñado para desarrollar y entrenar agentes de fútbol autónomos usando técnicas avanzadas de aprendizaje por refuerzo multiagente (MARL). Simula partidos de fútbol realistas en entornos 2D o 3D, ofreciendo herramientas para definir funciones de recompensa, personalizar atributos de jugadores e implementar estrategias tácticas. Los usuarios pueden integrar algoritmos populares de RL (como PPO, DDPG y MADDPG) mediante módulos integrados, monitorear el progreso del entrenamiento a través de paneles de control y visualizar comportamientos de los agentes en tiempo real. El marco soporta entrenamiento basado en escenarios para ofensiva, defensa y protocolos de coordinación. Con una base de código extensible y documentación detallada, SoccerAgent capacita a investigadores y desarrolladores a analizar dinámicas de equipos y perfeccionar estrategias de juego basadas en IA para proyectos académicos y comerciales.
  • Un agente de aprendizaje por refuerzo de código abierto que utiliza PPO para entrenar y jugar StarCraft II a través del entorno PySC2 de DeepMind.
    0
    0
    ¿Qué es StarCraft II Reinforcement Learning Agent?
    Este repositorio proporciona un marco completo para la investigación en juego en StarCraft II. El agente principal usa Proximal Policy Optimization (PPO) para aprender redes de política que interpretan datos de observación del entorno PySC2 y generan acciones precisas en el juego. Los desarrolladores pueden configurar capas de redes neuronales, formateo de recompensas y horarios de entrenamiento para optimizar el rendimiento. El sistema soporta multiproceso para recolección eficiente de muestras, utilidades de registro para monitorear curvas de entrenamiento y scripts de evaluación para correr políticas entrenadas contra oponentes scriptados o AI incorporados. El código está escrito en Python y aprovecha TensorFlow para definición y optimización de modelos. Los usuarios pueden extender componentes como funciones de recompensa personalizadas, preprocesamiento de estado o arquitecturas de red para fines específicos de investigación.
  • Un agente IA basado en RL que aprende estrategias de apuestas óptimas para jugar al póker Texas Hold'em límite en heads-up eficientemente.
    0
    0
    ¿Qué es TexasHoldemAgent?
    TexasHoldemAgent proporciona un entorno modular basado en Python para entrenar, evaluar y desplegar un jugador de póker alimentado por IA para Texas Hold’em límite en heads-up. Integra un motor de simulación personalizado con algoritmos de aprendizaje por refuerzo profundo, incluido DQN, para una mejora iterativa de políticas. Las capacidades clave incluyen codificación del estado de la mano, definición del espacio de acción ( fold, call, raise ), configuración de recompensas y evaluación en tiempo real de decisiones. Los usuarios pueden personalizar los parámetros de aprendizaje, aprovechar la aceleración CPU/GPU, monitorear el progreso del entrenamiento y cargar o guardar modelos entrenados. El marco soporta simulaciones en lote para probar estrategias diversas, generar métricas de rendimiento y visualizar tasas de victoria, permitiendo a investigadores, desarrolladores y entusiastas del póker experimentar con estrategias de juego impulsadas por IA.
Destacados