Die besten パフォーマンスロギング-Lösungen für Sie

Finden Sie bewährte パフォーマンスロギング-Tools, die sowohl für Anfänger als auch für Experten geeignet sind, und steigern Sie Ihre Produktivität.

パフォーマンスロギング

  • Verbindet den X-Plane-Flugsimulator mit OpenAI Gym, um Verstärkungslernagenten für realistische Flugzeugsteuerung via Python zu trainieren.
    0
    0
    Was ist GYM_XPLANE_ML?
    GYM_XPLANE_ML umhüllt den X-Plane-Flugsimulator als OpenAI-Gym-Umgebung, wobei Gas, Höhenruder, Querruder und Ruderausgänge als Aktionsräume und Flugdaten wie Flughöhe, Geschwindigkeit und Orientierung als Beobachtungen bereitgestellt werden. Nutzer können Trainingsabläufe in Python skripten, vordefinierte Szenarien auswählen oder Wegpunkte, Wetterbedingungen und Flugzeugmodelle anpassen. Die Bibliothek verwaltet die Low-Latency-Kommunikation mit X-Plane, führt Episoden synchron aus, protokolliert Leistungsmetriken und unterstützt Echtzeit-Rendering für Debugging. Sie ermöglicht die iterative Entwicklung von ML-gesteuerten Autopiloten und experimentellen RL-Algorithmen in einer hochpräzisen Flugumgebung.
    GYM_XPLANE_ML Hauptfunktionen
    • OpenAI-Gym-API-Wrapper für X-Plane
    • Konfigurierbare Beobachtungs- und Aktionsräume
    • Integrierte Flugszenarien und Wegpunktunterstützung
    • Low-Latency-UDP-Kommunikation mit X-Plane
    • Echtzeit-Rendering und Leistungslogging
    • Benutzerdefinierte Szenarien- und Wetterkonfiguration
  • MAPF_G2RL ist ein Python-Framework, das Deep-Reinforcement-Learning-Agenten für effizientes Multi-Agenten-Pfadfinden auf Graphen trainiert.
    0
    0
    Was ist MAPF_G2RL?
    MAPF_G2RL ist ein Open-Source-Forschungsframework, das Graphentheorie und Deep Reinforcement Learning verbindet, um das Multi-Agenten-Pfadfindungsproblem (MAPF) zu lösen. Es kodiert Knoten und Kanten in Vektor-Repräsentationen, definiert räumliche und kollisionsbewusste Belohnungsfunktionen und unterstützt verschiedene RL-Algorithmen wie DQN, PPO und A2C. Das Framework automatisiert die Szenarien-Erstellung durch die Generierung zufälliger Graphen oder den Import realer Karten und steuert Trainingsschleifen, die Politiken für mehrere Agenten gleichzeitig optimieren. Nach dem Lernen werden die Agenten in simulierten Umgebungen bewertet, um Pfadeffizienz, Make-span und Erfolgsraten zu messen. Das modulare Design ermöglicht es Forschern, Kernkomponenten zu erweitern, neue MARL-Techniken zu integrieren und mit klassischen Lösungsansätzen zu benchmarken.
Ausgewählt