Este repositório fornece um conjunto completo de algoritmos de aprendizado por reforço multiagente—incluindo MADDPG, DDPG, PPO e outros—integrados com benchmarks padrão como o Multi-Agent Particle Environment e OpenAI Gym. Possui wrappers de ambiente personalizáveis, scripts de treinamento configuráveis, registro de logs em tempo real e métricas de avaliação de desempenho. Os usuários podem facilmente estender algoritmos, adaptar para tarefas personalizadas e comparar políticas em configurações cooperativas e adversariais com configuração mínima.
Recursos Principais do MultiAgent-ReinforcementLearning
Implementações de MADDPG, DDPG, PPO
Wrappers de ambiente para Multi-Agent Particle e Gym
Uma estrutura Python de código aberto que permite o design, treinamento e avaliação de sistemas de aprendizado por reforço multiagente cooperativos e competitivos.
O MultiAgentSystems foi projetado para simplificar o processo de construção e avaliação de aplicações de aprendizado por reforço multiagente (MARL). A plataforma inclui implementações de algoritmos de ponta como MADDPG, QMIX, VDN e treinamento centralizado com execução descentralizada. Possui wrappers de ambiente modulares compatíveis com OpenAI Gym, protocolos de comunicação para interação entre agentes e utilitários de registro para rastrear métricas como modelagem de recompensas e taxas de convergência. Pesquisadores podem personalizar arquiteturas de agentes, ajustar hiperparâmetros e simular configurações como navegação cooperativa, alocação de recursos e jogos adversariais. Com suporte integrado para PyTorch, aceleração por GPU e integração com TensorBoard, o MultiAgentSystems acelera experimentação e benchmarking em domínios colaborativos e competitivos de múltiplos agentes.
AutoDRIVE Cooperative MARL é uma estrutura hospedada no GitHub que combina o simulador de condução urbana AutoDRIVE com algoritmos adaptáveis de aprendizado por reforço multiagente. Inclui scripts de treinamento, wrappers de ambiente, métricas de avaliação e ferramentas de visualização para desenvolver e testar políticas de condução cooperativa. Os usuários podem configurar os espaços de observação dos agentes, funções de recompensa e hiperparâmetros de treinamento. O repositório suporta extensões modulares, permitindo definições personalizadas de tarefas, aprendizagem por currículo e acompanhamento de desempenho para pesquisas em coordenação de veículos autônomos.