DEf-MARL (Dezentrales Ausführungs-Framework für Multi-Agenten-Verstärkungslernen) bietet eine robuste Infrastruktur zur Ausführung und Schulung von kooperativen Agenten ohne zentrale Steuerung. Es nutzt Peer-to-Peer-Kommunikationsprotokolle, um Policies und Beobachtungen zwischen Agenten zu teilen, und ermöglicht so die Koordination durch lokale Interaktionen. Das Framework integriert sich nahtlos in gängige RL-Toolkits wie PyTorch und TensorFlow und bietet anpassbare Umgebungs-Wrapper, verteilte Rollout-Sammlung und Gradient-Synchronisations-Module. Nutzer können agentenspezifische Beobachtungsräume, Belohnungsfunktionen und Kommunikations-Topologien definieren. DEf-MARL unterstützt dynamisches Hinzufügen und Entfernen von Agenten zur Laufzeit, fehlertolerante Ausführung durch Replikation kritischer Zustände auf Knoten und adaptive Kommunikationsplanung zur Balance zwischen Exploration und Exploitation. Es beschleunigt das Training durch Parallelisierung der Umweltsimulationen und Reduzierung zentraler Engpässe, was es für groß angelegte MARL-Forschung und industrielle Simulationen geeignet macht.