MGym ist ein spezialisiertes Framework zum Erstellen und Verwalten von Multi-Agent-Reinforcement-Learning-(MARL)-Umgebungen in Python. Es ermöglicht Nutzern, komplexe Szenarien mit mehreren Agenten zu definieren, die jeweils anpassbare Beobachtungs- und Aktionsräume, Belohnungsfunktionen und Interaktionsregeln besitzen. MGym unterstützt sowohl synchrone als auch asynchrone Ausführungsmodi und bietet parallele sowie rundenbasierte Agentensimulationen. Mit einer vertrauten Gym-ähnlichen API integriert sich MGym nahtlos mit beliebten RL-Bibliotheken wie Stable Baselines, RLlib und PyTorch. Es enthält Utility-Module für Environment-Benchmarking, Ergebnisvisualisierung und Leistungsanalysen, um eine systematische Bewertung von MARL-Algorithmen zu erleichtern. Die modulare Architektur erlaubt schnelles Prototyping kooperativer, wettbewerbsfähiger oder gemischter Agentenaufgaben und befähigt Forscher und Entwickler, die MARL-Experimentation und -Forschung zu beschleunigen.