Pacman AI offre un environnement Python entièrement fonctionnel et un cadre d'agents pour le jeu classique Pacman. Le projet implémente des algorithmes clés d'apprentissage par renforcement—Q-learning et itération de valeurs—pour permettre à l'agent d'apprendre des stratégies optimales pour la collecte de pilules, la navigation dans le labyrinthe et l'évitement des fantômes. Les utilisateurs peuvent définir des fonctions de récompense personnalisées et ajuster des hyperparamètres tels que le taux d'apprentissage, le facteur de dépréciation et la stratégie d'exploration. Le cadre supporte la journalisation des métriques, la visualisation des performances et la configuration d'expériences reproductibles. Conçu pour une extension facile, il permet aux chercheurs et étudiants d'intégrer de nouveaux algorithmes ou approches d'apprentissage basées sur des réseaux neuronaux et de les comparer aux méthodes de grille de référence dans le domaine Pacman.
GameGen-X est un outil IA de pointe qui utilise un processus de formation en deux phases pour générer des jeux vidéo en monde ouvert engageants. La première phase, Pré-entraînement fondamental, consiste à former le modèle sur le jeu de données OGameData en utilisant des techniques de génération de texte à vidéo et de continuation vidéo. La deuxième phase, Réglage des instructions, peaufine le modèle avec InstructNet pour permettre la création de contenu interactif en temps réel. Alimenté par plus de 32 000 clips vidéo de jeu sélectionnés parmi des RPG, FPS, des jeux de course et plus encore, GameGen-X permet aux utilisateurs de produire facilement des environnements de jeu diversifiés et immersifs.
AIpacman est un framework Python fournissant des agents basés sur la recherche, adversaires, et d'apprentissage par renforcement pour maîtriser le jeu Pac-Man.
AIpacman est un projet Python open-source simulant l'environnement de jeu Pac-Man pour des expériences en IA. Les utilisateurs peuvent choisir parmi des agents intégrés ou en créer de nouveaux avec des algorithmes de recherche comme DFS, BFS, A*, UCS ; des méthodes adverses telles que Minimax avec élagage Alpha-Beta et Expectimax ; ou des techniques d'apprentissage par renforcement comme Q-Learning. Le framework offre des labyrinthes configurables, un journal de performance, une visualisation des décisions des agents, et une interface en ligne de commande pour jouer des matchs et comparer les scores. Il est conçu pour les cours, benchmarks de recherche et projets amateurs en IA et développement de jeux.