Outils RoboCup simples et intuitifs

Explorez des solutions RoboCup conviviales, conçues pour simplifier vos projets et améliorer vos performances.

RoboCup

  • HFO_DQN est un cadre d'apprentissage par renforcement qui applique Deep Q-Network pour entraîner des agents de football dans l'environnement RoboCup Half Field Offense.
    0
    0
    Qu'est-ce que HFO_DQN ?
    HFO_DQN combine Python et TensorFlow pour fournir une chaîne complète pour entraîner des agents de football utilisant Deep Q-Networks. Les utilisateurs peuvent cloner le dépôt, installer les dépendances incluant le simulateur HFO et les bibliothèques Python, et configurer les paramètres d'entraînement dans des fichiers YAML. Le cadre implémente la mémoire d'expérience, les mises à jour du réseau cible, l'exploration ε-greedy, et le façonnage de récompenses spécifique au domaine offense de moitié terrain. Il comprend des scripts pour l'entraînement des agents, la journalisation des performances, des matchs d'évaluation, et la réalisation de graphiques. La structure modulaire du code permet d'intégrer des architectures neural personnalisées, des algorithmes RL alternatifs, et des stratégies de coordination multi-agents. Les sorties incluent des modèles entraînés, des métriques de performance, et des visualisations du comportement, facilitant la recherche en apprentissage par renforcement et systèmes multi-agents.
    Fonctionnalités principales de HFO_DQN
    • Implémentation du Deep Q-Network
    • Buffer de replay d'expérience
    • Mises à jour du réseau cible
    • Exploration epsilon-greedy
    • Façonnage de récompenses spécifique à HFO
    • Scripts d'entraînement et d'évaluation
    • Journalisation de la performance et tracé
    • Code modulaire pour architectures personnalisées
Vedettes