Este repositório implementa comunicação emergente em aprendizado por reforço multiagente usando PyTorch. Os usuários podem configurar redes neurais de emissores e receptores para jogar jogos referenciais ou navegação cooperativa, incentivando os agentes a desenvolver um canal de comunicação discreto ou contínuo. Oferece scripts para treinamento, avaliação e visualização dos protocolos aprendidos, além de utilitários para criação de ambientes, codificação e decodificação de mensagens. Pesquisadores podem expandi-lo com tarefas personalizadas, modificar arquiteturas de rede e analisar a eficiência do protocolo, promovendo experimentação rápida em comunicação emergente de agentes.
Recursos Principais do Learning-to-Communicate-PyTorch
O que é Multi-Agent DDPG with PyTorch & Unity ML-Agents?
Este projeto de código aberto oferece uma estrutura completa de aprendizado por reforço multiagente construída em PyTorch e Unity ML-Agents. Inclui algoritmos DDPG descentralizados, wrappers de ambiente e roteiros de treinamento. Os usuários podem configurar políticas de agentes, redes críticas, buffers de replay e trabalhadores de treinamento paralelos. Ganchos de registro permitem monitoramento no TensorBoard, enquanto um código modular suporta funções de recompensa e parâmetros de ambiente personalizados. O repositório inclui cenas Unity de exemplo demonstrando tarefas colaborativas de navegação, tornando-se ideal para estender e testar cenários multiagente em simulações.
Recursos Principais do Multi-Agent DDPG with PyTorch & Unity ML-Agents