Outils bibliothèques RL simples et intuitifs

Explorez des solutions bibliothèques RL conviviales, conçues pour simplifier vos projets et améliorer vos performances.

bibliothèques RL

  • Une environnement Python OpenAI Gym simulant la chaîne d'approvisionnement du jeu de la bière pour former et évaluer des agents RL.
    0
    0
    Qu'est-ce que Beer Game Environment ?
    L'environnement Beer Game fournit une simulation en temps discret d'une chaîne d'approvisionnement en bière à quatre étapes — détaillant, grossiste, distributeur, fabricant — avec une interface OpenAI Gym. Les agents reçoivent des observations incluant le stock en main, le stock en pipeline et les commandes entrantes, puis produisent des quantités de commande. L'environnement calcule les coûts par étape pour la détention d'inventaire et les retards, et supporte des distributions de demande et des délais de livraison personnalisables. Il s'intègre parfaitement avec des bibliothèques RL populaires comme Stable Baselines3, permettant aux chercheurs et éducateurs de benchmarker et former des algorithmes sur des tâches d'optimisation de la chaîne d'approvisionnement.
    Fonctionnalités principales de Beer Game Environment
    • Environnement conforme à OpenAI Gym
    • Simule les rôles : détaillant, grossiste, distributeur, fabricant
    • Distributions de demande et délais de livraison personnalisables
    • Calcul des coûts par étape pour stocks et retards
    • Intégration transparente avec des bibliothèques RL
  • Pits and Orbs offre un environnement de type grille multi-agents où les IA évitent les pièges, collectent des sphères et rivalisent dans des scénarios au tour par tour.
    0
    0
    Qu'est-ce que Pits and Orbs ?
    Pits and Orbs est un environnement open-source pour l’apprentissage par renforcement, implémenté en Python, offrant un monde de grille multi-agents au tour par tour où les agents poursuivent des objectifs et font face à des dangers environnementaux. Chaque agent doit naviguer sur une grille configurable, éviter des pièges placés aléatoirement qui pénalisent ou terminent les épisodes, et collecter des sphères pour des récompenses positives. L’environnement prend en charge des modes compétitifs et coopératifs, permettant aux chercheurs d’explorer divers scénarios d’apprentissage. Son API simple s’intègre parfaitement avec des bibliothèques RL populaires comme Stable Baselines ou RLlib. Les principales caractéristiques incluent des dimensions de grille ajustables, des distributions dynamiques de pièges et de sphères, des structures de récompense configurables, et un journalisation optionnelle pour l’analyse de l’entraînement.
Vedettes