Ferramentas StarCraft II AI para todas as ocasiões

Obtenha soluções StarCraft II AI flexíveis que atendem a diversas demandas com eficiência.

StarCraft II AI

  • Um agente de aprendizado por reforço de código aberto que usa PPO para treinar e jogar StarCraft II via o ambiente PySC2 do DeepMind.
    0
    0
    O que é StarCraft II Reinforcement Learning Agent?
    Este repositório fornece uma estrutura completa de aprendizado por reforço para pesquisa de jogabilidade em StarCraft II. O agente principal usa Proximal Policy Optimization (PPO) para aprender redes de política que interpretam dados de observação do ambiente PySC2 e geram ações precisas no jogo. Desenvolvedores podem configurar camadas de redes neurais, modelagem de recompensas e cronogramas de treinamento para otimizar o desempenho. O sistema suporta multiprocessamento para coleta eficiente de amostras, utilitários de registro para monitorar curvas de treinamento e scripts de avaliação para executar políticas treinadas contra oponentes scriptados ou IA incorporada. O código é escrito em Python e utiliza TensorFlow para definição e otimização de modelos. Usuários podem estender componentes como funções de recompensa personalizadas, pré-processamento de estado ou arquiteturas de rede para atender a objetivos de pesquisa específicos.
    Recursos Principais do StarCraft II Reinforcement Learning Agent
    • Treinamento de política baseado em PPO no ambiente SC2
    • Integração com PySC2 do DeepMind para gerenciamento de estados/ações
    • Arquiteturas de rede e recompensas configuráveis
    • Suporte a multiprocessamento para coleta paralela de amostras
    • Registro e integração com TensorBoard
    • Scripts de avaliação para benchmarking de agentes
  • Implementação simplificada do AlphaStar em PyTorch, permitindo treinamento de agentes RL em StarCraft II com arquitetura modular de rede e autojogo.
    0
    0
    O que é mini-AlphaStar?
    mini-AlphaStar revela a arquitetura complexa do AlphaStar ao fornecer uma estrutura acadêmica, de código aberto, em PyTorch para desenvolvimento de IA em StarCraft II. Inclui codificadores de características espaciais para entradas de tela e minimapa, processamento de características não espaciais, módulos de memória LSTM e redes separadas de política e valor para seleção de ações e avaliação de estados. Utiliza aprendizagem por imitação para bootstrap e reforço com autojogo para ajuste fino, suportando wrappers de ambiente compatíveis com StarCraft II via pysc2, registro via TensorBoard e hiperparâmetros configuráveis. Pesquisadores e estudantes podem gerar conjuntos de dados de jogos humanos, treinar modelos em cenários personalizados, avaliar o desempenho do agente e visualizar curvas de aprendizado. A estrutura modular permite experimentação fácil com variantes de rede, cronogramas de treinamento e configurações multiagentes. Destinado à educação e prototipagem, não para implantação em produção.
  • Um framework de aprendizado por reforço multiagente de código aberto que permite controle de nível bruto e coordenação de agentes em StarCraft II via PySC2.
    0
    0
    O que é MultiAgent-Systems-StarCraft2-PySC2-Raw?
    MultiAgent-Systems-StarCraft2-PySC2-Raw oferece um kit completo para desenvolver, treinar e avaliar múltiplos agentes de IA em StarCraft II. Ele expõe controles de baixo nível para movimento de unidades, ataque e habilidades, enquanto permite uma configuração flexível de recompensas e cenários. Os usuários podem facilmente inserir arquiteturas de redes neurais personalizadas, definir estratégias de coordenação em equipe e registrar métricas. Construído sobre o PySC2, suporta treinamento paralelo, pontos de verificação e visualização, tornando-o ideal para avançar na pesquisa de aprendizado por reforço multiagente cooperativo e adversarial.
Em Destaque