Ferramentas self-play training para todas as ocasiões

Obtenha soluções self-play training flexíveis que atendem a diversas demandas com eficiência.

self-play training

  • Implementação simplificada do AlphaStar em PyTorch, permitindo treinamento de agentes RL em StarCraft II com arquitetura modular de rede e autojogo.
    0
    0
    O que é mini-AlphaStar?
    mini-AlphaStar revela a arquitetura complexa do AlphaStar ao fornecer uma estrutura acadêmica, de código aberto, em PyTorch para desenvolvimento de IA em StarCraft II. Inclui codificadores de características espaciais para entradas de tela e minimapa, processamento de características não espaciais, módulos de memória LSTM e redes separadas de política e valor para seleção de ações e avaliação de estados. Utiliza aprendizagem por imitação para bootstrap e reforço com autojogo para ajuste fino, suportando wrappers de ambiente compatíveis com StarCraft II via pysc2, registro via TensorBoard e hiperparâmetros configuráveis. Pesquisadores e estudantes podem gerar conjuntos de dados de jogos humanos, treinar modelos em cenários personalizados, avaliar o desempenho do agente e visualizar curvas de aprendizado. A estrutura modular permite experimentação fácil com variantes de rede, cronogramas de treinamento e configurações multiagentes. Destinado à educação e prototipagem, não para implantação em produção.
    Recursos Principais do mini-AlphaStar
    • Codificação de características espaciais e não espaciais
    • Módulos de memória LSTM
    • Redes separadas de política e valor
    • Pipeline de aprendizagem por imitação e reforço
    • Wrappers de ambiente para autojogo via pysc2
    • Registro e visualização no TensorBoard
    • Hiperparâmetros configuráveis
    • Código modular em PyTorch
Em Destaque