Outils fonctions de récompense personnalisables simples et intuitifs

Explorez des solutions fonctions de récompense personnalisables conviviales, conçues pour simplifier vos projets et améliorer vos performances.

fonctions de récompense personnalisables

  • MAPF_G2RL est un cadre Python entraînant des agents d'apprentissage par renforcement profond pour la recherche de chemin multi-agents efficace sur des graphes.
    0
    0
    Qu'est-ce que MAPF_G2RL ?
    MAPF_G2RL est un cadre de recherche open-source qui relie la théorie des graphes et l'apprentissage par renforcement profond pour résoudre le problème de recherche de chemin multi-agents (MAPF). Il encode les nœuds et les arêtes en représentations vectorielles, définit des fonctions de récompense spatiales et sensibles aux collisions, et supporte divers algorithmes RL tels que DQN, PPO et A2C. Le cadre automatise la création de scénarios en générant des graphes aléatoires ou en important des cartes du monde réel, et orchestre des boucles d'entraînement qui optimisent simultanément les politiques pour plusieurs agents. Après apprentissage, les agents sont évalués dans des environnements simulés pour mesurer l'optimalité des chemins, le temps de sortie et les taux de réussite. Sa conception modulaire permet aux chercheurs d'étendre ses composants, d'intégrer de nouvelles techniques MARL et de benchmarker contre des solveurs classiques.
    Fonctionnalités principales de MAPF_G2RL
    • Encodage et prétraitement du graphe
    • Modules de modulation des récompenses personnalisables
    • Support pour les algorithmes DQN, PPO, A2C
    • Générateur de scénarios pour cartes aléatoires et réelles
    • Pipelines d'entraînement et d'évaluation multi-agents
    • Outils de journalisation et de visualisation des performances
  • MARFT est une boîte à outils open-source d'affinement par apprentissage par renforcement multi-agent pour les flux de travail IA collaboratifs et l'optimisation de modèles linguistiques.
    0
    0
    Qu'est-ce que MARFT ?
    MARFT est un LLM basé sur Python, permettant des expériences reproductibles et la prototypage rapide de systèmes IA collaboratifs.
  • RL Shooter fournit un environnement d'apprentissage par renforcement basé sur Doom, personnalisable, pour entraîner des agents IA à naviguer et tirer sur des cibles.
    0
    0
    Qu'est-ce que RL Shooter ?
    RL Shooter est un cadre basé sur Python qui intègre ViZDoom avec les API OpenAI Gym pour créer un environnement flexible d'apprentissage par renforcement pour les jeux FPS. Les utilisateurs peuvent définir des scénarios, cartes et structures de récompense personnalisés pour entraîner les agents sur la navigation, la détection de cibles et les tâches de tir. Avec des cadres d'observation, des espaces d'action et des facilités de journalisation configurables, il supporte des bibliothèques populaires de RL profond comme Stable Baselines et RLlib, permettant un suivi clair des performances et la reproductibilité des expériences.
Vedettes