Herramientas 強化学習 sin costo

Accede a herramientas 強化学習 gratuitas y versátiles, ideales para tareas personales y profesionales.

強化学習

  • Jason-RL equipa los agentes Jason BDI con aprendizaje por refuerzo, permitiendo decisiones adaptativas basadas en Q-learning y SARSA a través de la experiencia de recompensas.
    0
    0
    ¿Qué es jason-RL?
    Jason-RL añade una capa de aprendizaje por refuerzo al marco multiagente de Jason, permitiendo que los agentes AgentSpeak BDI aprendan políticas de selección de acciones mediante retroalimentación de recompensas. Implementa algoritmos Q-learning y SARSA, soporta la configuración de parámetros de aprendizaje (tasa de aprendizaje, factor de descuento, estrategia de exploración) y registra métricas de entrenamiento. Al definir funciones de recompensa en los planes de agentes y ejecutar simulaciones, los desarrolladores pueden observar cómo los agentes mejoran su toma de decisiones con el tiempo y se adaptan a entornos cambiantes sin codificación manual de políticas.
  • MARFT es una caja de herramientas de código abierto para ajuste fino de agentes múltiples en aprendizaje por refuerzo (RL) para flujos de trabajo de IA colaborativa y optimización de modelos de lenguaje.
    0
    0
    ¿Qué es MARFT?
    MARFT es un LLM basado en Python que permite experimentos reproducibles y prototipado rápido de sistemas de IA colaborativos.
  • Una plataforma RL de código abierto inspirada en Minecraft que permite a agentes AI aprender tareas complejas en entornos sandbox 3D personalizables.
    0
    0
    ¿Qué es MineLand?
    MineLand proporciona un entorno sandbox 3D flexible inspirado en Minecraft para entrenar agentes de aprendizaje por refuerzo. Cuenta con APIs compatibles con Gym para una integración fluida con bibliotecas RL existentes como Stable Baselines, RLlib, y implementaciones personalizadas. Los usuarios tienen acceso a una biblioteca de tareas, incluyendo recolección de recursos, navegación y desafíos de construcción, cada una con dificultades y estructuras de recompensa configurables. Renderizado en tiempo real, escenarios multi-agente y modos sin interfaz permiten entrenamiento escalable y benchmarking. Los desarrolladores pueden diseñar nuevos mapas, definir funciones de recompensa personalizadas y agregar sensores o controles adicionales. La base de código open-source de MineLand fomenta la investigación reproducible, el desarrollo colaborativo y la creación rápida de prototipos de agentes IA en mundos virtuales complejos.
  • Implementación simplificada en PyTorch de AlphaStar, que permite entrenar un agente RL para StarCraft II con arquitectura de red modular y auto-juego.
    0
    0
    ¿Qué es mini-AlphaStar?
    mini-AlphaStar desmitifica la arquitectura compleja de AlphaStar ofreciendo un marco accesible y de código abierto en PyTorch para el desarrollo de IA en StarCraft II. Incluye codificadores de características espaciales para entradas de pantalla y minimapa, procesamiento de características no espaciales, módulos de memoria LSTM, y redes separadas de política y valor para la selección de acciones y evaluación del estado. Utiliza aprendizaje por imitación para comenzar y aprendizaje por refuerzo con auto-juego para afinar, soporta wrappers de entorno compatibles con pysc2, registro con TensorBoard y hiperparámetros configurables. Investigadores y estudiantes pueden generar conjuntos de datos a partir de partidas humanas, entrenar modelos en escenarios personalizados, evaluar el rendimiento del agente y visualizar curvas de aprendizaje. La base modular del código facilita experimentar con variantes de redes, programas de entrenamiento y configuraciones multi-agente. Diseñado para educación y prototipado, no para despliegue en producción.
  • Un entorno basado en Unity ML-Agents para entrenar tareas cooperativas de inspección multi-agente en escenarios virtuales 3D personalizables.
    0
    0
    ¿Qué es Multi-Agent Inspection Simulation?
    La Simulación de Inspección Multi-Agente proporciona un marco completo para simular y entrenar múltiples agentes autónomos para realizar tareas de inspección en cooperación dentro de entornos Unity 3D. Se integra con el conjunto de herramientas Unity ML-Agents, ofreciendo escenas configurables con objetivos de inspección, funciones de recompensa ajustables y parámetros de comportamiento de los agentes. Los investigadores pueden crear entornos personalizados, definir el número de agentes y establecer planes de entrenamiento mediante APIs en Python. El paquete soporta sesiones de entrenamiento en paralelo, registro en TensorBoard y observaciones personalizables, incluyendo raycasts, feeds de cámaras y datos de posición. Al ajustar hiperparámetros y la complejidad del entorno, los usuarios pueden realizar benchmarks de algoritmos de aprendizaje por refuerzo en métricas de cobertura, eficiencia y coordinación. La base de código de código abierto fomenta extensiones para prototipado de robótica, investigación en IA cooperativa y demostraciones educativas en sistemas multi-agente.
  • Entorno Python de código abierto para entrenar agentes IA cooperativos para vigilar y detectar intrusos en escenarios basados en una cuadrícula.
    0
    0
    ¿Qué es Multi-Agent Surveillance?
    Multi-Agent Surveillance ofrece un marco de simulación flexible donde múltiples agentes IA actúan como depredadores o evasores en un mundo de cuadrícula discreto. Los usuarios pueden configurar parámetros del entorno como dimensiones de la cuadrícula, número de agentes, radios de detección y estructuras de recompensa. El repositorio incluye clases en Python para comportamiento de agentes, scripts de generación de escenarios, visualización incorporada mediante matplotlib y una integración fluida con bibliotecas populares de aprendizaje por refuerzo. Esto facilita la creación de referencias para la coordinación multi-agente, desarrollo de estrategias de vigilancia personalizadas y realización de experimentos reproducibles.
  • Un entorno de simulación en Python de código abierto para entrenar el control cooperativo de enjambres de drones mediante aprendizaje por refuerzo multiagente.
    0
    0
    ¿Qué es Multi-Agent Drone Environment?
    El entorno de drones multiagente es un paquete de Python que ofrece una simulación multiagente configurable para enjambres de UAV, basado en OpenAI Gym y PyBullet. Los usuarios definen múltiples agentes drones con modelos cinemáticos y dinámicos para explorar tareas cooperativas como vuelo en formación, seguimiento de objetivos y evitación de obstáculos. El entorno soporta configuración modular de tareas, detección de colisiones realista y emulación de sensores, además de permitir funciones de recompensa y políticas descentralizadas personalizadas. Los desarrolladores pueden integrar sus propios algoritmos de aprendizaje por refuerzo, evaluar el rendimiento bajo diferentes escenarios y visualizar en tiempo real las trayectorias y métricas de los agentes. Su diseño de código abierto fomenta las contribuciones comunitarias, siendo ideal para investigación, enseñanza y prototipado avanzado de soluciones de control multiagente.
  • Coordina múltiples agentes autónomos de recolecta de residuos utilizando aprendizaje por refuerzo para optimizar rutas de recolección de manera eficiente.
    0
    0
    ¿Qué es Multi-Agent Autonomous Waste Collection System?
    El Sistema de Recolección Autónoma de Residuos Multiagente es una plataforma basada en investigación que emplea aprendizaje por refuerzo multiagente para entrenar robots recolectores de residuos que colaboran en la planificación de rutas. Los agentes aprenden a evitar coberturas redundantes, minimizar la distancia de viaje y responder a patrones dinámicos de generación de residuos. Desarrollado en Python, el sistema integra un entorno de simulación para probar y perfeccionar políticas antes del despliegue en el mundo real. Los usuarios pueden configurar mapas, puntos de entrega, sensores de los agentes y estructuras de recompensas para adaptar el comportamiento a áreas urbanas específicas o restricciones operativas.
  • Implementa aprendizaje por refuerzo multi-agente DDPG descentralizado usando PyTorch y Unity ML-Agents para entrenamiento colaborativo de agentes.
    0
    0
    ¿Qué es Multi-Agent DDPG with PyTorch & Unity ML-Agents?
    Este proyecto de código abierto brinda un marco completo de aprendizaje por refuerzo multi-agente construido sobre PyTorch y Unity ML-Agents. Incluye algoritmos DDPG descentralizados, envoltorios de entornos y scripts de entrenamiento. Los usuarios pueden configurar políticas de agentes, redes críticas, buffers de reproducción y trabajadores de entrenamiento en paralelo. Los hooks de registro permiten monitoreo con TensorBoard, mientras que una estructura modular soporta funciones de recompensa y parámetros de entorno personalizables. El repositorio incluye escenas de ejemplo en Unity demostrando tareas de navegación colaborativa, ideal para ampliar y evaluar escenarios multi-agente en simulaciones.
  • Marco de trabajo de IA de agentes múltiples de código abierto para el seguimiento colaborativo de objetos en videos utilizando aprendizaje profundo y toma de decisiones reforzada.
    0
    0
    ¿Qué es Multi-Agent Visual Tracking?
    El Seguimiento Visual Multi-Agente implementa un sistema de seguimiento distribuido compuesto por agentes inteligentes que comunican para mejorar la precisión y robustez en el seguimiento de objetos en video. Los agentes ejecutan redes neuronales convolucionales para detección, comparten observaciones para manejar oclusiones y ajustan los parámetros de seguimiento mediante aprendizaje por refuerzo. Compatible con conjuntos de datos de videos populares, soporta entrenamiento e inferencia en tiempo real. Los usuarios pueden integrarlo fácilmente en flujos existentes y extender comportamientos de agentes para aplicaciones personalizadas.
  • Un marco de trabajo de código abierto para aprendizaje por refuerzo multiagente que permite control de agentes a nivel bruto y coordinación en StarCraft II a través de PySC2.
    0
    0
    ¿Qué es MultiAgent-Systems-StarCraft2-PySC2-Raw?
    MultiAgent-Systems-StarCraft2-PySC2-Raw ofrece un conjunto completo de herramientas para desarrollar, entrenar y evaluar múltiples agentes de IA en StarCraft II. Expone controles a bajo nivel para movimiento de unidades, objetivos y habilidades, permitiendo además una configuración flexible de recompensas y escenarios. Los usuarios pueden integrar fácilmente arquitecturas neuronales personalizadas, definir estrategias de coordinación en equipo y grabar métricas. Basado en PySC2, soporta entrenamiento paralelo, creación de puntos de control y visualización, siendo ideal para avanzar en la investigación en aprendizaje por refuerzo con múltiples agentes tanto cooperativos como adversarios.
  • Un marco de trabajo de aprendizaje por refuerzo multiagente basado en Python para desarrollar y simular entornos de agentes AI cooperativos y competitivos.
    0
    0
    ¿Qué es Multiagent_system?
    Multiagent_system ofrece un kit completo para la construcción y gestión de entornos multiagente. Los usuarios pueden definir escenarios de simulación personalizados, especificar comportamientos de agentes y aprovechar algoritmos pre-implementados como DQN, PPO y MADDPG. El marco soporta entrenamientos sincrónicos y asincrónicos, permitiendo que los agentes interactúen en paralelo o en configuraciones por turnos. Los módulos de comunicación integrados facilitan el paso de mensajes entre agentes para estrategias cooperativas. La configuración de experimentos se agiliza mediante archivos YAML y los resultados se registran automáticamente en CSV o TensorBoard. Los scripts de visualización ayudan a interpretar trayectorias de agentes, evolución de recompensas y patrones de comunicación. Diseñado para flujos de trabajo de investigación y producción, Multiagent_system escala de manera transparente desde prototipos en una sola máquina hasta entrenamiento distribuido en clústeres GPU.
  • Un marco de simulación multiagente basado en Python que permite la colaboración, competencia y entrenamiento simultáneos de agentes en entornos personalizables.
    0
    1
    ¿Qué es MultiAgentes?
    MultiAgentes ofrece una arquitectura modular para definir entornos y agentes, soportando interacciones multiagente síncronas y asíncronas. Incluye clases base para entornos y agentes, escenarios predefinidos para tareas cooperativas y competitivas, herramientas para personalizar funciones de recompensa y APIs para comunicación entre agentes y compartición de observaciones. Utilidades de visualización permiten monitorización en tiempo real de comportamientos de agentes, mientras que módulos de registro guardan métricas de rendimiento para análisis. El marco se integra perfectamente con bibliotecas RL compatibles con Gym, permitiendo entrenar agentes con algoritmos existentes. MultiAgentes está diseñado para extensibilidad, permitiendo a desarrolladores agregar nuevos modelos de entornos, tipos de agentes y protocolos de comunicación para diversas aplicaciones de investigación y educativas.
  • Framework de código abierto que permite implementar y evaluar estrategias de IA multiagente en un entorno clásico de juego Pacman.
    0
    0
    ¿Qué es MultiAgentPacman?
    MultiAgentPacman ofrece un entorno de juego en Python donde los usuarios pueden implementar, visualizar y comparar múltiples agentes de IA en el dominio Pacman. Soporta algoritmos de búsqueda adversarial como minimax, expectimax, poda alfa-beta, así como agentes personalizados basados en aprendizaje por refuerzo o heurísticas. El marco incluye una interfaz gráfica sencilla, controles en línea de comandos y utilidades para registrar estadísticas de juego y comparar el rendimiento de los agentes en escenarios competitivos o cooperativos.
  • Un marco de código abierto en Python que permite el diseño, entrenamiento y evaluación de sistemas de aprendizaje por refuerzo multiagente cooperativos y competitivos.
    0
    0
    ¿Qué es MultiAgentSystems?
    MultiAgentSystems está diseñado para simplificar el proceso de construir y evaluar aplicaciones de aprendizaje por refuerzo multiagente (MARL). La plataforma incluye implementaciones de algoritmos de vanguardia como MADDPG, QMIX, VDN, además de entrenamiento centralizado con ejecución descentralizada. Incluye envoltorios modulares de entornos compatibles con OpenAI Gym, protocolos de comunicación para interacción entre agentes y utilidades de registro para rastrear métricas como la forma del premio y tasas de convergencia. Los investigadores pueden personalizar arquitecturas de agentes, ajustar hiperparámetros y simular escenarios como navegación cooperativa, asignación de recursos y juegos adversarios. Con soporte integrado para PyTorch, aceleración GPU e integración con TensorBoard, MultiAgentSystems acelera la experimentación y evaluación comparativa en dominios multiagente colaborativos y competitivos.
  • Un marco de aprendizaje por refuerzo para entrenar políticas de navegación multi-robot libres de colisiones en entornos simulados.
    0
    0
    ¿Qué es NavGround Learning?
    NavGround Learning proporciona una caja de herramientas completa para desarrollar y evaluar agentes de aprendizaje por refuerzo en tareas de navegación. Soporta simulaciones multi-agente, modelado de colisiones, y sensores y actuadores personalizables. Los usuarios pueden elegir entre plantillas de políticas predefinidas o implementar arquitecturas personalizadas, entrenar con algoritmos RL de última generación y visualizar métricas de rendimiento. Su integración con OpenAI Gym y Stable Baselines3 simplifica la gestión de experimentos, mientras que las herramientas de registro y visualización integradas permiten un análisis profundo del comportamiento del agente y la dinámica de entrenamiento.
  • OpenSpiel proporciona una biblioteca de entornos y algoritmos para investigación en aprendizaje por refuerzo y planificación en teoría de juegos.
    0
    0
    ¿Qué es OpenSpiel?
    OpenSpiel es un marco de investigación que proporciona una amplia gama de entornos (desde juegos simples de matriz hasta juegos de tablero complejos como Ajedrez, Go y Póker) e implementa varios algoritmos de aprendizaje por refuerzo y búsqueda (por ejemplo, iteración de valores, métodos de gradiente de política, MCTS). Su núcleo modular en C++ y enlaces en Python permiten a los usuarios integrar algoritmos personalizados, definir nuevos juegos y comparar el rendimiento en benchmarks estándar. Diseñado para extensibilidad, soporta configuraciones de un solo agente y multi-agente, permitiendo estudiar escenarios cooperativos y competitivos. Los investigadores utilizan OpenSpiel para prototipar rápidamente algoritmos, realizar experimentos a gran escala y compartir código reproducible.
  • Pits and Orbs ofrece un entorno de mundo en una cuadrícula multi-agente donde los agentes AI evitan trampas, recogen orbes y compiten en escenarios por turnos.
    0
    0
    ¿Qué es Pits and Orbs?
    Pits and Orbs es un entorno de código abierto para aprendizaje por refuerzo, implementado en Python, que ofrece un mundo en una cuadrícula multi-agente por turnos donde los agentes persiguen objetivos y enfrentan peligros ambientales. Cada agente debe navegar en una cuadrícula ajustable, evitar trampas colocadas aleatoriamente que penalizan o terminan episodios, y recolectar orbes para recompensas positivas. El entorno soporta modos competitivos y cooperativos, permitiendo a investigadores explorar diversos escenarios de aprendizaje. Su API simple se integra perfectamente con bibliotecas RL populares como Stable Baselines o RLlib. Características principales incluyen dimensiones de cuadrícula ajustables, distribuciones dinámicas de trampas y orbes, estructuras de recompensa configurables y registro opcional para análisis del entrenamiento.
  • Un marco de trabajo en Python que permite desarrollar y entrenar agentes de IA para jugar combates de Pokémon mediante aprendizaje por refuerzo.
    0
    1
    ¿Qué es Poke-Env?
    Poke-Env está diseñado para simplificar la creación y evaluación de agentes de IA para batallas en Pokémon Showdown mediante una interfaz completa en Python. Gestiona la comunicación con el servidor Pokémon Showdown, analiza los datos del estado del juego y gestiona las acciones turno a turno mediante una arquitectura basada en eventos. Los usuarios pueden extender clases básicas de jugadores para implementar estrategias personalizadas usando aprendizaje por refuerzo o algoritmos heurísticos. El framework ofrece soporte integrado para simulaciones de batalla, enfrentamientos paralelos y registros detallados de acciones, recompensas y resultados para investigación reproducible. Al abstraer tareas de red y análisis de bajo nivel, Poke-Env permite a investigadores y desarrolladores centrarse en el diseño de algoritmos, afinación de rendimiento y benchmarking comparativo de estrategias de batalla.
  • PyBrain: Biblioteca modular basada en Python para aprendizaje automático y redes neuronales.
    0
    0
    ¿Qué es pybrain.org?
    PyBrain, abreviación de Python-Based Reinforcement Learning, Artificial Intelligence, and Neural Networks Library, es una biblioteca modular y de código abierto diseñada para tareas de aprendizaje automático. Soporta la construcción de redes neuronales, el aprendizaje por refuerzo y otros algoritmos de IA. Con sus potentes y fáciles de usar algoritmos, PyBrain proporciona una herramienta valiosa para desarrolladores e investigadores que buscan abordar diversos problemas de aprendizaje automático. La biblioteca se integra sin problemas con otras bibliotecas de Python y es adecuada para tareas que van desde el aprendizaje supervisado simple hasta escenarios complejos de aprendizaje por refuerzo.
Destacados