Outils ИИ для StarCraft II simples et intuitifs

Explorez des solutions ИИ для StarCraft II conviviales, conçues pour simplifier vos projets et améliorer vos performances.

ИИ для StarCraft II

  • Implémentation simplifiée de PyTorch d'AlphaStar, permettant l'entraînement d'un agent RL pour StarCraft II avec une architecture réseau modulaire et auto-jeu.
    0
    0
    Qu'est-ce que mini-AlphaStar ?
    mini-AlphaStar démystifie l'architecture complexe d'AlphaStar en proposant un cadre PyTorch accessible et Open Source pour le développement d'IA dans StarCraft II. Il comprend des encodeurs de caractéristiques spatiales pour les entrées écran et minimap, un traitement des caractéristiques non spatiales, des modules de mémoire LSTM, et des réseaux de politique et de valeur séparés pour la sélection d'actions et l'évaluation d'état. En utilisant l'apprentissage par imitation pour démarrer et l'apprentissage par renforcement avec auto-jeu pour l'affinage, il supporte les wrappers d'environnement compatibles avec pysc2, la journalisation via TensorBoard et des hyperparamètres configurables. Les chercheurs et étudiants peuvent générer des jeux de données à partir de parties humaines, entraîner des modèles sur des scénarios personnalisés, évaluer la performance des agents et visualiser les courbes d'apprentissage. La base de code modulaire facilite l'expérimentation avec différentes variantes de réseaux, programmes d'entraînement et configurations multi-agents. Conçu pour l'éducation et le prototypage, et non pour le déploiement en production.
    Fonctionnalités principales de mini-AlphaStar
    • Codage de caractéristiques spatiales et non spatiales
    • Modules de mémoire LSTM
    • Réseaux séparés pour la politique et la valeur
    • Pipeline d'apprentissage par imitation et d'apprentissage par renforcement
    • Wrappers d'environnement d'auto-jeu via pysc2
    • Journalisation et visualisation avec TensorBoard
    • Hyperparamètres configurables
    • Code modulaire en PyTorch
  • Un agent d'apprentissage par renforcement en source ouverte utilisant PPO pour entraîner et jouer à StarCraft II via l'environnement PySC2 de DeepMind.
    0
    0
    Qu'est-ce que StarCraft II Reinforcement Learning Agent ?
    Ce dépôt fournit un cadre complet d'apprentissage par renforcement pour la recherche sur le gameplay de StarCraft II. L'agent principal utilise la Proximal Policy Optimization (PPO) pour apprendre des réseaux de politiques interprétant les données d'observation de l'environnement PySC2 et générant des actions précises dans le jeu. Les développeurs peuvent configurer les couches de réseaux neuronaux, la reformulation des récompenses et les plannings d'entraînement pour optimiser la performance. Le système supporte la collecte d'échantillons en multiprocessing pour plus d'efficacité, des outils de journalisation pour suivre les courbes d'entraînement, et des scripts d'évaluation pour tester les politiques entraînées contre des adversaires scriptés ou IA intégrée. Le code est écrit en Python et utilise TensorFlow pour la définition et l'optimisation des modèles. Les utilisateurs peuvent étendre des composants tels que les fonctions de récompense personnalisées, le pré-traitement des états ou les architectures de réseaux pour répondre à leurs objectifs de recherche spécifiques.
Vedettes