Outils 並行訓練 simples et intuitifs

Explorez des solutions 並行訓練 conviviales, conçues pour simplifier vos projets et améliorer vos performances.

並行訓練

  • Implémente l'apprentissage par renforcement multi-agent DDPG décentralisé utilisant PyTorch et Unity ML-Agents pour la formation collaborative des agents.
    0
    0
    Qu'est-ce que Multi-Agent DDPG with PyTorch & Unity ML-Agents ?
    Ce projet open-source offre un cadre complet d'apprentissage par renforcement multi-agent basé sur PyTorch et Unity ML-Agents. Il propose des algorithmes DDPG décentralisés, des wrappers d'environnements et des scripts d'entraînement. Les utilisateurs peuvent configurer les politiques d'agents, les réseaux critiques, les buffers de relecture et les travailleurs d'entraînement parallèles. Les hooks de journalisation permettent la surveillance avec TensorBoard, tandis qu'une architecture modulaire supporte des fonctions de récompense et paramètres d'environnement personnalisés. Le dépôt inclut des scènes Unity d'exemple illustrant des tâches de navigation collaborative, idéal pour étendre et benchmarker des scénarios multi-agent en simulation.
    Fonctionnalités principales de Multi-Agent DDPG with PyTorch & Unity ML-Agents
    • Implémentation décentralisée de DDPG multi-agent
    • Intégration avec Unity ML-Agents
    • Hyperparamètres et fonctions de récompense personnalisables
    • Journalisation et visualisation avec TensorBoard
    • Scènes Unity d'exemple pour tâches collaboratives
  • Une plateforme open-source d'apprentissage par renforcement multi-agent permettant un contrôle de niveau brut et la coordination dans StarCraft II via PySC2.
    0
    0
    Qu'est-ce que MultiAgent-Systems-StarCraft2-PySC2-Raw ?
    MultiAgent-Systems-StarCraft2-PySC2-Raw fournit un kit complet pour le développement, l'entraînement et l'évaluation de multiples agents IA dans StarCraft II. Il expose des contrôles de bas niveau pour le déplacement d'unités, la visée et les capacités, tout en permettant une conception flexible de récompenses et de scénarios. Les utilisateurs peuvent facilement insérer des architectures neuronales personnalisées, définir des stratégies de coordination en équipe et enregistrer des métriques. Basé sur PySC2, il supporte l'entraînement en parallèle, la création de points de contrôle et la visualisation, ce qui en fait un outil idéal pour faire progresser la recherche en apprentissage par renforcement multi-agent coopératif et adversarial.
  • MADDPG évolutif est un cadre d'apprentissage par renforcement multi-agent open-source implémentant la politique déterministe profonde pour plusieurs agents.
    0
    0
    Qu'est-ce que Scalable MADDPG ?
    MADDPG évolutif est un cadre orienté recherche pour l'apprentissage par renforcement multi-agent, offrant une implémentation évolutive de l'algorithme MADDPG. Il comprend des critiques centralisés lors de l'entraînement et des acteurs indépendants à l'exécution pour la stabilité et l'efficacité. La bibliothèque comprend des scripts Python pour définir des environnements personnalisés, configurer des architectures réseau et ajuster des hyperparamètres. Les utilisateurs peuvent entraîner plusieurs agents en parallèle, surveiller les métriques et visualiser les courbes d'apprentissage. Il s'intègre à des environnements similaires à OpenAI Gym et supporte l'accélération GPU via TensorFlow. Grâce à ses composants modulaires, MADDPG évolutif permet une expérimentation flexible sur des tâches multi-agents coopératives, compétitives ou mixtes, facilitant la prototypage rapide et le benchmarking.
Vedettes