Outils Q-Learning simples et intuitifs

Explorez des solutions Q-Learning conviviales, conçues pour simplifier vos projets et améliorer vos performances.

Q-Learning

  • simple_rl est une bibliothèque Python légère offrant des agents d'apprentissage par renforcement prédéfinis et des environnements pour des expérimentations rapides en RL.
    0
    0
    Qu'est-ce que simple_rl ?
    simple_rl est une bibliothèque Python minimaliste conçue pour rationaliser la recherche et l'éducation en apprentissage par renforcement. Elle offre une API cohérente pour définir des environnements et des agents, avec un support intégré pour les paradigmes RL courants comme Q-learning, Monte Carlo et les algorithmes de programmation dynamique tels que l'itération de valeur et de politique. Le cadre comprend des environnements d'exemple tels que GridWorld, MountainCar et Multi-Armed Bandits, facilitant l'expérimentation pratique. Les utilisateurs peuvent étendre les classes de base pour implémenter des environnements ou agents personnalisés, tandis que des fonctions utilitaires gèrent la journalisation, le suivi des performances et l'évaluation des politiques. La légèreté de simple_rl et la clarté du code en font un outil idéal pour le prototypage rapide, l'enseignement des fondamentaux du RL, et le benchmarking de nouveaux algorithmes dans un environnement reproductible et facile à comprendre.
  • Un cadre Python open-source avec des agents IA basés sur Pacman pour implémenter des algorithmes de recherche, adversariaux et d'apprentissage par renforcement.
    0
    0
    Qu'est-ce que Berkeley Pacman Projects ?
    Le dépôt Berkeley Pacman Projects offre une base de code Python modulaire où les utilisateurs construisent et testent des agents IA dans un labyrinthe Pacman. Il guide les apprenants à travers la recherche non informée et informée (DFS, BFS, A*), la recherche multi-agents adversariale (minimax, élagage alpha-bêta), et l'apprentissage par renforcement (Q-learning avec extraction de caractéristiques). Des interfaces graphiques intégrées visualisent le comportement des agents en temps réel, tandis que des cas de test intégrés et un autograder vérifient la correction. En itérant sur les implémentations d'algorithmes, les utilisateurs acquièrent une expérience pratique en exploration de l'espace d'états, conception d'heuristiques, raisonnement adversarial, et apprentissage basé sur les récompenses au sein d'un cadre de jeu unifié.
  • Un agent d'apprentissage par renforcement open-source qui apprend à jouer à Pacman, en optimisant la navigation et l'évitement des fantômes.
    0
    0
    Qu'est-ce que Pacman AI ?
    Pacman AI offre un environnement Python entièrement fonctionnel et un cadre d'agents pour le jeu classique Pacman. Le projet implémente des algorithmes clés d'apprentissage par renforcement—Q-learning et itération de valeurs—pour permettre à l'agent d'apprendre des stratégies optimales pour la collecte de pilules, la navigation dans le labyrinthe et l'évitement des fantômes. Les utilisateurs peuvent définir des fonctions de récompense personnalisées et ajuster des hyperparamètres tels que le taux d'apprentissage, le facteur de dépréciation et la stratégie d'exploration. Le cadre supporte la journalisation des métriques, la visualisation des performances et la configuration d'expériences reproductibles. Conçu pour une extension facile, il permet aux chercheurs et étudiants d'intégrer de nouveaux algorithmes ou approches d'apprentissage basées sur des réseaux neuronaux et de les comparer aux méthodes de grille de référence dans le domaine Pacman.
  • Le apprentissage automatique autodidacte simple est une bibliothèque Python fournissant des API simples pour construire, entraîner et évaluer des agents d'apprentissage par renforcement.
    0
    0
    Qu'est-ce que dead-simple-self-learning ?
    Le apprentissage automatique autodidacte simple offre aux développeurs une approche extrêmement simple pour créer et entraîner des agents d'apprentissage par renforcement en Python. Le framework abstrait les composants clés du RL, tels que les wrappers d'environnement, les modules de politique et les buffers d'expérience, en interfaces concises. Les utilisateurs peuvent rapidement initialiser les environnements, définir des politiques personnalisées avec des backends familiers comme PyTorch ou TensorFlow, et exécuter des boucles d’entraînement avec journalisation et sauvegarde intégrées. La bibliothèque supporte les algorithmes on-policy et off-policy, permettant une expérimentation flexible avec Q-learning, les gradients de politique et les méthodes acteur-critique. En réduisant le code boilerplate, le apprentissage automatique autodidacte simple permet aux praticiens, éducateurs et chercheurs de prototype des algorithmes, tester des hypothèses et visualiser la performance de l'agent avec une configuration minimale. Sa conception modulaire facilite également l'intégration avec les stacks ML existants et les environnements personnalisés.
  • Boîtier d'outils Python open-source offrant une reconnaissance de motifs aléatoire, basée sur des règles, et des agents d'apprentissage par renforcement pour Pierre-Papier-Cierre.
    0
    0
    Qu'est-ce que AI Agents for Rock Paper Scissors ?
    Les agents IA pour Pierre-Papier-Ciseaux sont un projet Python open-source démontrant comment construire, entraîner et évaluer différentes stratégies d'IA—jeu aléatoire, reconnaissance de motifs basée sur des règles, et apprentissage par renforcement (Q-learning)—dans le jeu classique Pierre-Papier-Ciseaux. Il fournit des classes d'agents modulaires, un moteur de jeu configurable, une journalisation des performances, et des utilitaires de visualisation. Les utilisateurs peuvent échanger facilement des agents, ajuster les paramètres d'apprentissage, et explorer le comportement de l'IA dans des scénarios compétitifs.
  • HFO_DQN est un cadre d'apprentissage par renforcement qui applique Deep Q-Network pour entraîner des agents de football dans l'environnement RoboCup Half Field Offense.
    0
    0
    Qu'est-ce que HFO_DQN ?
    HFO_DQN combine Python et TensorFlow pour fournir une chaîne complète pour entraîner des agents de football utilisant Deep Q-Networks. Les utilisateurs peuvent cloner le dépôt, installer les dépendances incluant le simulateur HFO et les bibliothèques Python, et configurer les paramètres d'entraînement dans des fichiers YAML. Le cadre implémente la mémoire d'expérience, les mises à jour du réseau cible, l'exploration ε-greedy, et le façonnage de récompenses spécifique au domaine offense de moitié terrain. Il comprend des scripts pour l'entraînement des agents, la journalisation des performances, des matchs d'évaluation, et la réalisation de graphiques. La structure modulaire du code permet d'intégrer des architectures neural personnalisées, des algorithmes RL alternatifs, et des stratégies de coordination multi-agents. Les sorties incluent des modèles entraînés, des métriques de performance, et des visualisations du comportement, facilitant la recherche en apprentissage par renforcement et systèmes multi-agents.
  • Jason-RL équipe les agents Jason BDI avec l'apprentissage par renforcement, permettant une prise de décision adaptative basée sur Q-learning et SARSA via l'expérience de récompense.
    0
    0
    Qu'est-ce que jason-RL ?
    Jason-RL ajoute une couche d'apprentissage par renforcement au cadre multi-agent Jason, permettant aux agents AgentSpeak BDI d'apprendre des politiques de sélection d'actions via le feedback de récompense. Elle met en œuvre les algorithmes Q-learning et SARSA, supporte la configuration des paramètres d'apprentissage (taux d'apprentissage, facteur d'actualisation, stratégie d'exploration) et enregistre les métriques d'entraînement. En définissant des fonctions de récompense dans les plans d'agents et en exécutant des simulations, les développeurs peuvent observer l'amélioration des prises de décision des agents au fil du temps, s'adaptant à des environnements changeants sans coder manuellement les politiques.
Vedettes