Эффективные StarCraft II AI решения

Используйте StarCraft II AI инструменты с высокой производительностью для успешной работы.

StarCraft II AI

  • Открытый агент обучения с подкреплением, использующий PPO для обучения и игры в StarCraft II через среду PySC2 от DeepMind.
    0
    0
    Что такое StarCraft II Reinforcement Learning Agent?
    Данный репозиторий предоставляет полноценную рамочную платформу для исследований в области обучения с подкреплением в игре StarCraft II. Основной агент использует Proximal Policy Optimization (PPO) для обучения сетей политики, интерпретирующих данные наблюдений из среды PySC2 и выдающих точные действия в игре. Разработчики могут настраивать слои нейронных сетей, формирование вознаграждений и графики обучения для оптимизации производительности. Система поддерживает многопоточность для эффективного сбора образцов, утилиты логирования для мониторинга кривых обучения и скрипты оценки для тестирования обученных моделей против скриптованных или встроенных ИИ-оппонентов. Код написан на Python и использует TensorFlow для определения и оптимизации моделей. Пользователи могут расширять компоненты, такие как пользовательские функции вознаграждения, предварительная обработка состояния или архитектура сети, для достижения конкретных целей исследования.
    Основные функции StarCraft II Reinforcement Learning Agent
    • Обучение политики на базе PPO в среде SC2
    • Интеграция с PySC2 от DeepMind для обработки состояний и действий
    • Настраиваемые архитектуры нейронных сетей и вознаграждения
    • Поддержка многопроцессорной обработки для параллельного сбора образцов
    • Логирование и интеграция с TensorBoard
    • Скрипты для оценки и сравнения агентов
  • Упрощенная реализация AlphaStar на PyTorch, позволяющая обучать агента RL для StarCraft II с модульной архитектурой сети и самостоятельной игрой.
    0
    0
    Что такое mini-AlphaStar?
    mini-AlphaStar демистифицирует сложную архитектуру AlphaStar, предлагая доступную и с открытым исходным кодом платформу на PyTorch для разработки ИИ для StarCraft II. Включает пространственные кодеры признаков для входных данных экрана и миникарты, обработку не пространственных признаков, модули памяти LSTM, отдельные сети политики и оценки стоимости для выбора действий и оценки состояния. Используя обучение имитацией для начальной настройки и обучение с усилением с помощью самоигры для донастройки, он поддерживает совместимые с pysc2 обертки окружения, логирование через TensorBoard и настраиваемые гиперпараметры. Исследователи и студенты могут создавать наборы данных из игровых состояний человека, обучать модели на пользовательских сценариях, оценивать эффективность агента и визуализировать кривые обучения. Модульный код облегчает эксперименты с вариациями сети, графиками обучения и многопро Agent-и. Предназначен для образовательных целей и прототипирования, а не для промышленного использования.
  • Открытая платформа с несколькими агентами для обучения с подкреплением, позволяющая управлять агентами на уровне команды и взаимодействовать в StarCraft II через PySC2.
    0
    0
    Что такое MultiAgent-Systems-StarCraft2-PySC2-Raw?
    MultiAgent-Systems-StarCraft2-PySC2-Raw предоставляет полный инструментарий для разработки, обучения и оценки нескольких AI-агентов в StarCraft II. Он обеспечивает низкоуровневое управление движением юнитов, целью и способностями, а также гибкую настройку наград и сценариев. Пользователи могут легко интегрировать собственные архитектуры нейронных сетей, определять стратегии командного взаимодействия и записывать метрики. Основанный на PySC2, он поддерживает параллельное обучение, создание снимков и визуализацию, что делает его идеальным для исследований в области обучения с подкреплением с несколькими агентами.
Рекомендуемые