algorithm benchmarking

  • Un entorno de aprendizaje por refuerzo multiagente basado en Python para tareas de búsqueda cooperativa con comunicación y recompensas configurables.
    0
    0
    ¿Qué es Cooperative Search Environment?
    El entorno de búsqueda cooperativa proporciona un entorno de aprendizaje por refuerzo multiagente flexible y compatible con gym, diseñado para tareas de búsqueda cooperativa en espacios en cuadrícula discretos y continuos. Los agentes operan bajo observabilidad parcial y pueden compartir información basándose en topologías de comunicación personalizables. El marco soporta escenarios predefinidos como búsqueda y rescate, seguimiento de objetivos dinámicos y mapeo colaborativo, con API para definir entornos personalizados y estructuras de recompensa. Se integra a la perfección con bibliotecas RL populares como Stable Baselines3 y Ray RLlib, incluye utilidades de registro para análisis de rendimiento y herramientas de visualización integradas para monitoreo en tiempo real. Los investigadores pueden ajustar tamaños de cuadrículas, conteo de agentes, rangos de sensores y mecanismos de compartición de recompensas para evaluar estrategias de coordinación y probar nuevos algoritmos de manera efectiva.
    Características principales de Cooperative Search Environment
    • Entorno multiagente compatible con gym
    • Escenarios configurables en cuadrícula y continuos
    • Observabilidad parcial y topologías de comunicación personalizables
    • Mecanismos de compartición de recompensas personalizables
    • Integración con Stable Baselines3 y Ray RLlib
  • Un entorno RL que simula múltiples mineros agentes cooperativos y competitivos que recopilan recursos en un mundo basado en una cuadrícula para el aprendizaje multiagente.
    0
    0
    ¿Qué es Multi-Agent Miners?
    Multi-Agent Miners ofrece un entorno de mundo en cuadrícula donde varios agentes mineros autónomos navegan, excavan y recogen recursos interactuando entre sí. Soporta tamaños de mapa configurables, número de agentes y estructuras de recompensa, permitiendo crear escenarios competitivos o cooperativos. El marco se integra con bibliotecas RL populares mediante PettingZoo, proporcionando APIs estandarizadas para funciones de reinicio, paso y renderizado. Los modos de visualización y soporte de registro ayudan a analizar comportamientos y resultados, siendo ideal para investigación, educación y benchmarking de algoritmos en aprendizaje por refuerzo multiagente.
  • Un marco de código abierto basado en múltiples agentes con aprendizaje por refuerzo para el control cooperativo de vehículos autónomos en escenarios de tráfico.
    0
    0
    ¿Qué es AutoDRIVE Cooperative MARL?
    AutoDRIVE Cooperative MARL es un marco de código abierto diseñado para entrenar y desplegar políticas de aprendizaje por refuerzo multiactores cooperativos para tareas de conducción autónoma. Se integra con simuladores realistas para modelar escenarios de tráfico como intersecciones, formación de convoy en autopistas y escenarios de fusión. El marco implementa entrenamiento centralizado con ejecución descentralizada, permitiendo que los vehículos aprendan políticas compartidas que maximicen la eficiencia y seguridad del tráfico global. Los usuarios pueden configurar parámetros del entorno, escoger algoritmos MARL de referencia, visualizar el progreso del entrenamiento y evaluar la coordinación de los agentes.
Destacados