Outils パフォーマンスロギング simples et intuitifs

Explorez des solutions パフォーマンスロギング conviviales, conçues pour simplifier vos projets et améliorer vos performances.

パフォーマンスロギング

  • Relie le simulateur de vol X-Plane à OpenAI Gym pour former des agents d'apprentissage par renforcement pour un contrôle réaliste des avions via Python.
    0
    0
    Qu'est-ce que GYM_XPLANE_ML ?
    GYM_XPLANE_ML encapsule le simulateur de vol X-Plane en tant qu'environnement OpenAI Gym, exposant la commande de l'accélérateur, de l'élévateur, de l'aileron et du gouvernail comme espaces d'action et des paramètres de vol tels que l'altitude, la vitesse et l'orientation comme observations. Les utilisateurs peuvent programmer des flux de travail d'entraînement en Python, choisir des scénarios prédéfinis ou personnaliser des waypoints, des conditions météorologiques et des modèles d'avion. La bibliothèque gère la communication à faible latence avec X-Plane, exécute des épisodes en mode synchrone, enregistre les performances et supporte le rendu en temps réel pour le débogage. Elle permet le développement itératif d'autopilotes basés sur ML et d'algorithmes RL expérimentaux dans un environnement de vol haute fidélité.
    Fonctionnalités principales de GYM_XPLANE_ML
    • Interface API OpenAI Gym pour X-Plane
    • Espaces d'observation et d'action configurables
    • Scénarios de vol intégrés et support des waypoints
    • Communication UDP à faible latence avec X-Plane
    • Rendu en temps réel et journalisation des performances
    • Configuration personnalisée des scénarios et du temps météo
  • MAPF_G2RL est un cadre Python entraînant des agents d'apprentissage par renforcement profond pour la recherche de chemin multi-agents efficace sur des graphes.
    0
    0
    Qu'est-ce que MAPF_G2RL ?
    MAPF_G2RL est un cadre de recherche open-source qui relie la théorie des graphes et l'apprentissage par renforcement profond pour résoudre le problème de recherche de chemin multi-agents (MAPF). Il encode les nœuds et les arêtes en représentations vectorielles, définit des fonctions de récompense spatiales et sensibles aux collisions, et supporte divers algorithmes RL tels que DQN, PPO et A2C. Le cadre automatise la création de scénarios en générant des graphes aléatoires ou en important des cartes du monde réel, et orchestre des boucles d'entraînement qui optimisent simultanément les politiques pour plusieurs agents. Après apprentissage, les agents sont évalués dans des environnements simulés pour mesurer l'optimalité des chemins, le temps de sortie et les taux de réussite. Sa conception modulaire permet aux chercheurs d'étendre ses composants, d'intégrer de nouvelles techniques MARL et de benchmarker contre des solveurs classiques.
Vedettes