Outils scripts d'entraînement simples et intuitifs

Explorez des solutions scripts d'entraînement conviviales, conçues pour simplifier vos projets et améliorer vos performances.

scripts d'entraînement

  • MARL-DPP implémente l'apprentissage par renforcement multi-agent avec diversité via des processus déterminants pour encourager des politiques coordonnées variées.
    0
    0
    Qu'est-ce que MARL-DPP ?
    MARL-DPP est un cadre open-source permettant l'apprentissage par renforcement multi-agent (MARL) avec diversité imposée via des processus déterminants (DPP). Les approches MARL traditionnelles souffrent souvent d'une convergence des politiques vers des comportements similaires ; MARL-DPP y remédie en intégrant des mesures basées sur le DPP pour encourager les agents à conserver des distributions d'actions diversifiées. La boîte à outils fournit un code modulaire pour intégrer le DPP dans les objectifs d'entraînement, l’échantillonnage de politiques et la gestion de l’exploration. Elle inclut une intégration prête à l’emploi avec des environnements standard comme OpenAI Gym et l’environnement multi-agent Particle (MPE), ainsi que des utilitaires pour la gestion des hyperparamètres, la journalisation et la visualisation des métriques de diversité. Les chercheurs peuvent évaluer l’impact des contraintes de diversité sur des tâches coopératives, l’allocation des ressources et les jeux compétitifs. La conception extensible prend en charge des environnements personnalisés et des algorithmes avancés, facilitant l’exploration de nouvelles variantes de MARL-DPP.
  • Implémente l'apprentissage par renforcement multi-agent DDPG décentralisé utilisant PyTorch et Unity ML-Agents pour la formation collaborative des agents.
    0
    0
    Qu'est-ce que Multi-Agent DDPG with PyTorch & Unity ML-Agents ?
    Ce projet open-source offre un cadre complet d'apprentissage par renforcement multi-agent basé sur PyTorch et Unity ML-Agents. Il propose des algorithmes DDPG décentralisés, des wrappers d'environnements et des scripts d'entraînement. Les utilisateurs peuvent configurer les politiques d'agents, les réseaux critiques, les buffers de relecture et les travailleurs d'entraînement parallèles. Les hooks de journalisation permettent la surveillance avec TensorBoard, tandis qu'une architecture modulaire supporte des fonctions de récompense et paramètres d'environnement personnalisés. Le dépôt inclut des scènes Unity d'exemple illustrant des tâches de navigation collaborative, idéal pour étendre et benchmarker des scénarios multi-agent en simulation.
  • Une plateforme PyTorch permettant aux agents d'apprendre des protocoles de communication émergents dans des tâches d'apprentissage par renforcement multi-agent.
    0
    0
    Qu'est-ce que Learning-to-Communicate-PyTorch ?
    Ce dépôt implémente la communication émergente dans l'apprentissage par renforcement multi-agent avec PyTorch. Les utilisateurs peuvent configurer des réseaux neuronaux pour l'émetteur et le récepteur afin de jouer à des jeux référentiels ou à une navigation coopérative, encourageant les agents à développer un canal de communication discret ou continu. Il fournit des scripts pour l'entraînement, l'évaluation et la visualisation des protocoles appris, ainsi que des utilitaires pour la création d'environnements, le codage et le décodage des messages. Les chercheurs peuvent l'étendre avec des tâches personnalisées, modifier les architectures de réseau et analyser l'efficacité des protocoles, favorisant des expérimentations rapides dans la communication d'agents émergents.
  • Une plateforme multi-agent open-source permettant une communication basée sur un langage émergent pour une prise de décision collaborative évolutive et des tâches d'exploration environnementale.
    0
    0
    Qu'est-ce que multi_agent_celar ?
    multi_agent_celar est conçue comme une plateforme d'IA modulaire permettant une communication à langage émergent entre plusieurs agents intelligents dans des environnements simulés. Les utilisateurs peuvent définir le comportement des agents via des fichiers de politique, configurer les paramètres de l'environnement, et lancer des sessions d'entraînement coordonnées où les agents font évoluer leurs propres protocoles de communication pour résoudre des tâches coopératives. Le cadre comprend des scripts d'évaluation, des outils de visualisation, et prend en charge des expériences évolutives, ce qui en fait une solution idéale pour la recherche en collaboration multi-agent, langage émergent et processus de décision.
  • Agent Deep Q-Network basé sur TensorFlow en open source qui apprend à jouer à Atari Breakout en utilisant la répétition d'expériences et des réseaux cibles.
    0
    0
    Qu'est-ce que DQN-Deep-Q-Network-Atari-Breakout-TensorFlow ?
    DQN-Deep-Q-Network-Atari-Breakout-TensorFlow fournit une implémentation complète de l'algorithme DQN adaptée à l'environnement Atari Breakout. Il utilise un réseau neuronal convolutionnel pour approximer les valeurs Q, applique la répétition d'expériences pour briser les corrélations entre observations séquentielles et emploie un réseau cible mis à jour périodiquement pour stabiliser l'entraînement. L'agent suit une politique epsilon-greedy pour l'exploration et peut être entraîné à partir de zéro avec des entrées de pixels bruts. Le dépôt comprend des fichiers de configuration, des scripts d'entraînement pour surveiller la croissance des récompenses, des scripts d'évaluation pour tester les modèles entraînés, et des utilitaires TensorBoard pour visualiser les métriques d'entraînement. Les utilisateurs peuvent ajuster des hyperparamètres tels que le taux d'apprentissage, la taille du buffer de replay et la taille de lot pour expérimenter différentes configurations.
Vedettes