Uma implementação baseada em Keras do Multi-Agent Deep Deterministic Policy Gradient para aprendizado por reforço multiagente cooperativo e competitivo.
MADDPG-Keras oferece uma estrutura completa para pesquisa em aprendizado por reforço multiagente ao implementar o algoritmo MADDPG em Keras. Suporta espaços de ação contínuos, múltiplos agentes e ambientes padrão do OpenAI Gym. Pesquisadores e desenvolvedores podem configurar arquiteturas de redes neurais, hiperparâmetros de treinamento e funções de recompensa, iniciando experimentos com registros integrados e checkpointing de modelos para acelerar o aprendizado de políticas multiagente e benchmarking.
O que é StarCraft II Reinforcement Learning Agent?
Este repositório fornece uma estrutura completa de aprendizado por reforço para pesquisa de jogabilidade em StarCraft II. O agente principal usa Proximal Policy Optimization (PPO) para aprender redes de política que interpretam dados de observação do ambiente PySC2 e geram ações precisas no jogo. Desenvolvedores podem configurar camadas de redes neurais, modelagem de recompensas e cronogramas de treinamento para otimizar o desempenho. O sistema suporta multiprocessamento para coleta eficiente de amostras, utilitários de registro para monitorar curvas de treinamento e scripts de avaliação para executar políticas treinadas contra oponentes scriptados ou IA incorporada. O código é escrito em Python e utiliza TensorFlow para definição e otimização de modelos. Usuários podem estender componentes como funções de recompensa personalizadas, pré-processamento de estado ou arquiteturas de rede para atender a objetivos de pesquisa específicos.
Recursos Principais do StarCraft II Reinforcement Learning Agent