DEf-MARL (Marco de ejecución descentralizada para aprendizaje por refuerzo multi-agente) proporciona una infraestructura robusta para ejecutar y entrenar agentes cooperativos sin controladores centralizados. Utiliza protocolos de comunicación peer-to-peer para compartir políticas y observaciones entre agentes, permitiendo una coordinación mediante interacciones locales. El framework se integra perfectamente con toolkits RL comunes como PyTorch y TensorFlow, ofreciendo wrappers configurables, recopilación distribuida de rollout y módulos de sincronización de gradientes. Los usuarios pueden definir espacios de observación, funciones de recompensa y topologías de comunicación específicas para cada agente. DEf-MARL soporta adición y eliminación dinámica de agentes en tiempo de ejecución, ejecución tolerante a fallos mediante replicación del estado crítico en nodos, y planificación de comunicación adaptativa para equilibrar exploración y explotación. Acelera el entrenamiento paralizando simulaciones de entornos y reduciendo los cuellos de botella centrales, siendo adecuado para investigación MARL a gran escala y simulaciones industriales.