Outils игры с открытым исходным кодом simples et intuitifs

Explorez des solutions игры с открытым исходным кодом conviviales, conçues pour simplifier vos projets et améliorer vos performances.

игры с открытым исходным кодом

  • Un agent IA qui joue à Pentago Swap en évaluant les états du plateau et en sélectionnant les placements optimaux en utilisant la recherche Monte Carlo dans l'arbre.
    0
    0
    Qu'est-ce que Pentago Swap AI Agent ?
    L'agent IA Pentago Swap met en œuvre un adversaire intelligent pour le jeu Pentago Swap en exploitant un algorithme Monte Carlo Tree Search (MCTS) pour explorer et évaluer les états de jeu potentiels. À chaque tour, l'agent simule de nombreux déploiements, en notant les positions de jeu résultantes pour identifier les coups qui maximisent la probabilité de victoire. Il supporte la personnalisation des paramètres de recherche tels que le nombre de simulations, la constante d'exploration et la politique de déploiement, permettant aux utilisateurs d'optimiser la performance. L'agent comprend une interface en ligne de commande pour des affrontements directs, l'auto-jeu pour générer des données d'entraînement, et une API Python pour l'intégration dans des environnements de jeu ou des tournois plus vastes. Avec un code modulaire, il facilite l'extension avec des heuristiques alternatives ou des évaluateurs en réseaux neuronaux pour la recherche avancée et le développement.
  • Un agent RL open-source pour les duels Yu-Gi-Oh, offrant simulation d'environnement, entraînement de politique et optimisation de stratégie.
    0
    0
    Qu'est-ce que YGO-Agent ?
    Le cadre YGO-Agent permet aux chercheurs et aux passionnés de développer des bots IA qui jouent au jeu de cartes Yu-Gi-Oh en utilisant l'apprentissage par renforcement. Il enveloppe le simulateur de jeu YGOPRO dans un environnement compatible OpenAI Gym, définissant des représentations d'état telles que la main, le terrain et les points de vie, ainsi que des représentations d'action incluant l'invocation, l'activation de sorts/pièges et l'attaque. Les récompenses sont basées sur les résultats de victoire/défaite, les dégâts infligés et la progression du jeu. L'architecture de l'agent utilise PyTorch pour implémenter DQN, avec des options pour des architectures de réseau personnalisées, la rejouabilité d'expérience et l'exploration epsilon-greedy. Les modules de journalisation enregistrent les courbes d'entraînement, les taux de victoire et les logs de mouvements détaillés pour l'analyse. Le cadre est modulaire, permettant aux utilisateurs de remplacer ou d'étendre des composants tels que la fonction de récompense ou l'espace d'action.
Vedettes