Outils TensorBoard-Visualisierung simples et intuitifs

Explorez des solutions TensorBoard-Visualisierung conviviales, conçues pour simplifier vos projets et améliorer vos performances.

TensorBoard-Visualisierung

  • Implémentation simplifiée de PyTorch d'AlphaStar, permettant l'entraînement d'un agent RL pour StarCraft II avec une architecture réseau modulaire et auto-jeu.
    0
    0
    Qu'est-ce que mini-AlphaStar ?
    mini-AlphaStar démystifie l'architecture complexe d'AlphaStar en proposant un cadre PyTorch accessible et Open Source pour le développement d'IA dans StarCraft II. Il comprend des encodeurs de caractéristiques spatiales pour les entrées écran et minimap, un traitement des caractéristiques non spatiales, des modules de mémoire LSTM, et des réseaux de politique et de valeur séparés pour la sélection d'actions et l'évaluation d'état. En utilisant l'apprentissage par imitation pour démarrer et l'apprentissage par renforcement avec auto-jeu pour l'affinage, il supporte les wrappers d'environnement compatibles avec pysc2, la journalisation via TensorBoard et des hyperparamètres configurables. Les chercheurs et étudiants peuvent générer des jeux de données à partir de parties humaines, entraîner des modèles sur des scénarios personnalisés, évaluer la performance des agents et visualiser les courbes d'apprentissage. La base de code modulaire facilite l'expérimentation avec différentes variantes de réseaux, programmes d'entraînement et configurations multi-agents. Conçu pour l'éducation et le prototypage, et non pour le déploiement en production.
  • Implémente l'apprentissage par renforcement multi-agent DDPG décentralisé utilisant PyTorch et Unity ML-Agents pour la formation collaborative des agents.
    0
    0
    Qu'est-ce que Multi-Agent DDPG with PyTorch & Unity ML-Agents ?
    Ce projet open-source offre un cadre complet d'apprentissage par renforcement multi-agent basé sur PyTorch et Unity ML-Agents. Il propose des algorithmes DDPG décentralisés, des wrappers d'environnements et des scripts d'entraînement. Les utilisateurs peuvent configurer les politiques d'agents, les réseaux critiques, les buffers de relecture et les travailleurs d'entraînement parallèles. Les hooks de journalisation permettent la surveillance avec TensorBoard, tandis qu'une architecture modulaire supporte des fonctions de récompense et paramètres d'environnement personnalisés. Le dépôt inclut des scènes Unity d'exemple illustrant des tâches de navigation collaborative, idéal pour étendre et benchmarker des scénarios multi-agent en simulation.
  • Vanilla Agents fournit des implémentations prêtes à l'emploi d'agents RL DQN, PPO et A2C avec des pipelines de formation personnalisables.
    0
    0
    Qu'est-ce que Vanilla Agents ?
    Vanilla Agents est un cadre léger basé sur PyTorch qui fournit des implémentations modulaires et extensibles d'agents d'apprentissage par renforcement de base. Il supporte des algorithmes comme DQN, Double DQN, PPO et A2C, avec des wrappers d'environnement adaptables compatibles avec OpenAI Gym. Les utilisateurs peuvent configurer les hyperparamètres, enregistrer les métriques d'entraînement, sauvegarder les points de contrôle et visualiser les courbes d'apprentissage. La base de code est organisée pour la clarté, ce qui le rend idéal pour le prototypage de recherche, un usage éducatif et la mise en référence de nouvelles idées en RL.
Vedettes