Die besten 協調学習-Lösungen für Sie

Finden Sie bewährte 協調学習-Tools, die sowohl für Anfänger als auch für Experten geeignet sind, und steigern Sie Ihre Produktivität.

協調学習

  • MARL-DPP implementiert Multi-Agenten-Renforcement-Learning mit Diversität mittels Determinantal Point Processes, um vielfältige koordinierte Politiken zu fördern.
    0
    0
    Was ist MARL-DPP?
    MARL-DPP ist ein Open-Source-Framework, das Multi-Agenten-Verstärkungslernen (MARL) mit erzwungener Diversität durch Determinantal Point Processes (DPP) ermöglicht. Traditionelle MARL-Ansätze leiden oft daran, dass sich Politiken auf ähnliche Verhaltensweisen konvergieren; MARL-DPP adressiert dies, indem es dpp-basierte Maßnahmen integriert, um Agenten zu ermutigen, vielfältige Aktionsverteilungen beizubehalten. Das Toolkit bietet modulare Codes zur Einbettung von DPP in Trainingsziele, bei der Probenahme von Politiken und beim Management der Exploration. Es enthält fertige Integrationen mit Standard-Umgebungen wie OpenAI Gym und der Multi-Agent Particle Environment (MPE), sowie Werkzeuge für Hyperparameter-Management, Logging und die Visualisierung von Diversitätsmetriken. Forscher können die Auswirkungen von Diversitätsbeschränkungen bei kooperativen Aufgaben, Ressourcenallokation und Wettkampfspielen bewerten. Das erweiterbare Design unterstützt benutzerdefinierte Umgebungen und fortgeschrittene Algorithmen, um die Erforschung neuer MARL-DPP-Varianten zu erleichtern.
    MARL-DPP Hauptfunktionen
    • DPP-basierte Diversitätsmodul
    • Integration mit OpenAI Gym
    • Unterstützung für MPE-Umgebungen
    • Trainings- und Evaluierungsskripte
    • Visualisierung von Diversitätsmetriken
  • Eine Open-Source-Mehragenten-Reinforcement-Learning-Framework, das Rohsteuerung und Koordination von Agenten in StarCraft II über PySC2 ermöglicht.
    0
    0
    Was ist MultiAgent-Systems-StarCraft2-PySC2-Raw?
    MultiAgent-Systems-StarCraft2-PySC2-Raw bietet ein vollständiges Toolkit zum Entwickeln, Trainieren und Bewerten mehrerer KI-Agenten in StarCraft II. Es stellt Low-Level-Kontrollen für Einheitenbewegung, Zielverfolgung und Fähigkeiten bereit und erlaubt gleichzeitig eine flexible Belohnungs- und Szenarienkonfiguration. Nutzer können eigene neuronale Netzwerkarchitekturen integrieren, Team-Strategien definieren und Metriken aufzeichnen. Basierend auf PySC2 unterstützt es paralleles Training, Checkpointing und Visualisierung, was es ideal für Forschung im Bereich kooperatives und adversariales multi-agenten Reinforcement Learning macht.
Ausgewählt