- Schritt 1: Klonen Sie das MAPF_G2RL-Repository von GitHub
- Schritt 2: Installieren Sie Abhängigkeiten via pip mit requirements.txt
- Schritt 3: Konfigurieren Sie Graph- und Trainingsparameter in Konfigurationsdateien
- Schritt 4: Führen Sie das Trainingsskript aus, um RL-Agenten zu trainieren
- Schritt 5: Bewerten Sie die trainierten Modelle in simulierten Umgebungen
- Schritt 6: Analysieren Sie die Ergebnisse und passen Sie Hyperparameter bei Bedarf an