Un marco de trabajo en PyTorch que permite a los agentes aprender protocolos de comunicación emergentes en tareas de aprendizaje por refuerzo multiagente.
Este repositorio implementa comunicación emergente en aprendizaje por refuerzo multiagente usando PyTorch. Los usuarios pueden configurar redes neuronales para emisores y receptores para jugar a juegos referenciales o navegación cooperativa, fomentando que los agentes desarrollen un canal de comunicación discreto o continuo. Incluye scripts para entrenamiento, evaluación y visualización de protocolos aprendidos, además de utilidades para crear entornos, codificar y decodificar mensajes. Los investigadores pueden extenderlo con tareas personalizadas, modificar arquitecturas de red y analizar la eficiencia del protocolo, promoviendo experimentos rápidos en comunicación emergente de agentes.
Características principales de Learning-to-Communicate-PyTorch
Implementación del juego de comunicación referencial
Soporte para tareas de navegación cooperativa
Arquitecturas modulares de redes en PyTorch
Canales de mensajes discretos y continuos
Scripts para entrenamiento, evaluación y visualización
¿Qué es Multi-Agent DDPG with PyTorch & Unity ML-Agents?
Este proyecto de código abierto brinda un marco completo de aprendizaje por refuerzo multi-agente construido sobre PyTorch y Unity ML-Agents. Incluye algoritmos DDPG descentralizados, envoltorios de entornos y scripts de entrenamiento. Los usuarios pueden configurar políticas de agentes, redes críticas, buffers de reproducción y trabajadores de entrenamiento en paralelo. Los hooks de registro permiten monitoreo con TensorBoard, mientras que una estructura modular soporta funciones de recompensa y parámetros de entorno personalizables. El repositorio incluye escenas de ejemplo en Unity demostrando tareas de navegación colaborativa, ideal para ampliar y evaluar escenarios multi-agente en simulaciones.
Características principales de Multi-Agent DDPG with PyTorch & Unity ML-Agents