DEf-MARL (Estrutura de Execução Descentralizada para Aprendizado por Reforço Multiagente) fornece uma infraestrutura robusta para executar e treinar agentes cooperativos sem controladores centralizados. Ela utiliza protocolos de comunicação ponto a ponto para compartilhar políticas e observações entre agentes, permitindo coordenação por meio de interações locais. A estrutura se integra perfeitamente com ferramentas comuns de RL, como PyTorch e TensorFlow, oferecendo wrappers personalizáveis de ambientes, coleta distribuída de rollout e módulos de sincronização de gradientes. Os usuários podem definir espaços de observação específicos do agente, funções de recompensa e topologias de comunicação. O DEf-MARL suporta adição e remoção dinâmica de agentes em tempo de execução, execução tolerante a falhas através da replicação de estados críticos entre nós e agendamento adaptativo de comunicação para equilibrar exploração e explotação. Ele acelera o treinamento ao paralelizar simulações de ambientes e reduzir gargalos centrais, tornando-o adequado para pesquisa em MARL em grande escala e simulações industriais.