DEf-MARL (Cadre d'exécution décentralisé pour l'apprentissage par renforcement multi-agents) fournit une infrastructure robuste pour exécuter et former des agents coopératifs sans contrôleurs centralisés. Il exploite des protocoles de communication peer-to-peer pour partager les politiques et observations entre agents, permettant une coordination par interactions locales. Le cadre s'intègre parfaitement avec des outils RL courants tels que PyTorch et TensorFlow, offrant des wrappers d'environnement personnalisables, la collecte distribuée de rollouts et des modules de synchronisation de gradients. Les utilisateurs peuvent définir des espaces d'observation, des fonctions de récompense et des topologies de communication spécifiques à chaque agent. DEf-MARL supporte l'ajout et la suppression dynamiques d'agents en cours d'exécution, une exécution tolérante aux fautes en répliquant des états critiques sur les nœuds, et une planification de communication adaptative pour équilibrer exploration et exploitation. Il accélère la formation par la parallélisation des simulations d'environnements et la réduction des goulets d'étranglement centraux, ce qui le rend adapté à la recherche MARL à grande échelle et aux simulations industrielles.