Outils StarCraft II AI simples et intuitifs

Explorez des solutions StarCraft II AI conviviales, conçues pour simplifier vos projets et améliorer vos performances.

StarCraft II AI

  • Un agent d'apprentissage par renforcement en source ouverte utilisant PPO pour entraîner et jouer à StarCraft II via l'environnement PySC2 de DeepMind.
    0
    0
    Qu'est-ce que StarCraft II Reinforcement Learning Agent ?
    Ce dépôt fournit un cadre complet d'apprentissage par renforcement pour la recherche sur le gameplay de StarCraft II. L'agent principal utilise la Proximal Policy Optimization (PPO) pour apprendre des réseaux de politiques interprétant les données d'observation de l'environnement PySC2 et générant des actions précises dans le jeu. Les développeurs peuvent configurer les couches de réseaux neuronaux, la reformulation des récompenses et les plannings d'entraînement pour optimiser la performance. Le système supporte la collecte d'échantillons en multiprocessing pour plus d'efficacité, des outils de journalisation pour suivre les courbes d'entraînement, et des scripts d'évaluation pour tester les politiques entraînées contre des adversaires scriptés ou IA intégrée. Le code est écrit en Python et utilise TensorFlow pour la définition et l'optimisation des modèles. Les utilisateurs peuvent étendre des composants tels que les fonctions de récompense personnalisées, le pré-traitement des états ou les architectures de réseaux pour répondre à leurs objectifs de recherche spécifiques.
    Fonctionnalités principales de StarCraft II Reinforcement Learning Agent
    • Entraînement de politique basé sur PPO dans l’environnement SC2
    • Intégration avec PySC2 de DeepMind pour la gestion des états/actions
    • Architectures de réseaux neuronaux et récompenses configurables
    • Support multiprocessing pour la collecte parallèle d’échantillons
    • Journalisation et intégration avec TensorBoard
    • Scripts d’évaluation pour le benchmarking des agents
  • Implémentation simplifiée de PyTorch d'AlphaStar, permettant l'entraînement d'un agent RL pour StarCraft II avec une architecture réseau modulaire et auto-jeu.
    0
    0
    Qu'est-ce que mini-AlphaStar ?
    mini-AlphaStar démystifie l'architecture complexe d'AlphaStar en proposant un cadre PyTorch accessible et Open Source pour le développement d'IA dans StarCraft II. Il comprend des encodeurs de caractéristiques spatiales pour les entrées écran et minimap, un traitement des caractéristiques non spatiales, des modules de mémoire LSTM, et des réseaux de politique et de valeur séparés pour la sélection d'actions et l'évaluation d'état. En utilisant l'apprentissage par imitation pour démarrer et l'apprentissage par renforcement avec auto-jeu pour l'affinage, il supporte les wrappers d'environnement compatibles avec pysc2, la journalisation via TensorBoard et des hyperparamètres configurables. Les chercheurs et étudiants peuvent générer des jeux de données à partir de parties humaines, entraîner des modèles sur des scénarios personnalisés, évaluer la performance des agents et visualiser les courbes d'apprentissage. La base de code modulaire facilite l'expérimentation avec différentes variantes de réseaux, programmes d'entraînement et configurations multi-agents. Conçu pour l'éducation et le prototypage, et non pour le déploiement en production.
  • Une plateforme open-source d'apprentissage par renforcement multi-agent permettant un contrôle de niveau brut et la coordination dans StarCraft II via PySC2.
    0
    0
    Qu'est-ce que MultiAgent-Systems-StarCraft2-PySC2-Raw ?
    MultiAgent-Systems-StarCraft2-PySC2-Raw fournit un kit complet pour le développement, l'entraînement et l'évaluation de multiples agents IA dans StarCraft II. Il expose des contrôles de bas niveau pour le déplacement d'unités, la visée et les capacités, tout en permettant une conception flexible de récompenses et de scénarios. Les utilisateurs peuvent facilement insérer des architectures neuronales personnalisées, définir des stratégies de coordination en équipe et enregistrer des métriques. Basé sur PySC2, il supporte l'entraînement en parallèle, la création de points de contrôle et la visualisation, ce qui en fait un outil idéal pour faire progresser la recherche en apprentissage par renforcement multi-agent coopératif et adversarial.
Vedettes