algorithm benchmarking

  • Un environnement d'apprentissage par renforcement multi-agent basé sur Python pour des tâches de recherche coopérative avec communication et récompenses configurables.
    0
    0
    Qu'est-ce que Cooperative Search Environment ?
    L'environnement de recherche coopérative fournit un environnement d'apprentissage par renforcement multi-agent flexible et compatible gym, adapté aux tâches de recherche coopérative dans des espaces en grille discrète et en espace continu. Les agents fonctionnent sous observabilité partielle et peuvent partager des informations en fonction de topologies de communication personnalisables. Le cadre supporte des scénarios prédéfinis tels que recherche et sauvetage, suivi de cibles dynamiques, et cartographie collaborative, avec des API pour définir des environnements et des structures de récompense personnalisés. Il s'intègre parfaitement avec des bibliothèques RL populaires comme Stable Baselines3 et Ray RLlib, inclut des utilitaires de journalisation pour l’analyse des performances, et offre des outils de visualisation en temps réel. Les chercheurs peuvent ajuster la taille de la grille, le nombre d'agents, la portée des capteurs et les mécanismes de partage des récompenses pour évaluer efficacement les stratégies de coordination et benchmarker de nouveaux algorithmes.
    Fonctionnalités principales de Cooperative Search Environment
    • Environnement multi-agent compatible gym
    • Scénarios configurables basés sur grille et continus
    • Obesrvabilité partielle et topologies de communication personnalisables
    • Mécanismes de partage de récompense personnalisables
    • Intégration avec Stable Baselines3 et Ray RLlib
  • Une environnement RL simulant plusieurs agents mineurs coopératifs et compétitifs collectant des ressources dans un monde basé sur une grille pour l'apprentissage multi-agent.
    0
    0
    Qu'est-ce que Multi-Agent Miners ?
    Multi-Agent Miners offre un environnement de monde en grille où plusieurs agents mineurs autonomes naviguent, creusent et collectent des ressources tout en interagissant. Il supporte des tailles de carte configurables, le nombre d'agents et des structures de récompenses, permettant aux utilisateurs de créer des scénarios compétitifs ou coopératifs. Le framework s'intègre aux bibliothèques RL populaires via PettingZoo, fournissant des API standardisées pour les fonctions reset, step et render. Les modes de visualisation et le support de journalisation aident à analyser comportements et résultats, idéal pour la recherche, l'éducation et le benchmarking d'algorithmes en apprentissage par renforcement multi-agent.
  • Un cadre d'apprentissage par renforcement multi-agent open-source pour la conduite autonome coopérative en scénarios de trafic.
    0
    0
    Qu'est-ce que AutoDRIVE Cooperative MARL ?
    AutoDRIVE Cooperative MARL est un cadre open-source conçu pour entraîner et déployer des politiques d'apprentissage par renforcement multi-agent coopératif (MARL) pour des tâches de conduite autonome. Il s'intègre avec des simulateurs réalistes pour modéliser des scénarios de trafic tels que les intersections, le convoi sur autoroute et la fusion. Le cadre implémente une formation centralisée avec une exécution décentralisée, permettant aux véhicules d'apprendre des politiques partagées pour maximiser l'efficacité et la sécurité globales du trafic. Les utilisateurs peuvent configurer les paramètres de l’environnement, choisir parmi des algorithmes MARL de base, visualiser la progression de l'apprentissage et évaluer la coordination des agents.
Vedettes