Herramientas ИИ для StarCraft II de alto rendimiento

Accede a soluciones ИИ для StarCraft II que te ayudarán a completar tareas complejas con facilidad.

ИИ для StarCraft II

  • Implementación simplificada en PyTorch de AlphaStar, que permite entrenar un agente RL para StarCraft II con arquitectura de red modular y auto-juego.
    0
    0
    ¿Qué es mini-AlphaStar?
    mini-AlphaStar desmitifica la arquitectura compleja de AlphaStar ofreciendo un marco accesible y de código abierto en PyTorch para el desarrollo de IA en StarCraft II. Incluye codificadores de características espaciales para entradas de pantalla y minimapa, procesamiento de características no espaciales, módulos de memoria LSTM, y redes separadas de política y valor para la selección de acciones y evaluación del estado. Utiliza aprendizaje por imitación para comenzar y aprendizaje por refuerzo con auto-juego para afinar, soporta wrappers de entorno compatibles con pysc2, registro con TensorBoard y hiperparámetros configurables. Investigadores y estudiantes pueden generar conjuntos de datos a partir de partidas humanas, entrenar modelos en escenarios personalizados, evaluar el rendimiento del agente y visualizar curvas de aprendizaje. La base modular del código facilita experimentar con variantes de redes, programas de entrenamiento y configuraciones multi-agente. Diseñado para educación y prototipado, no para despliegue en producción.
    Características principales de mini-AlphaStar
    • Codificación de características espaciales y no espaciales
    • Módulos de memoria LSTM
    • Redes separadas de política y valor
    • Pipeline de aprendizaje por imitación y por refuerzo
    • Wrappers de entorno para auto-juego vía pysc2
    • Registro y visualización en TensorBoard
    • Hiperparámetros configurables
    • Código modular en PyTorch
  • Un agente de aprendizaje por refuerzo de código abierto que utiliza PPO para entrenar y jugar StarCraft II a través del entorno PySC2 de DeepMind.
    0
    0
    ¿Qué es StarCraft II Reinforcement Learning Agent?
    Este repositorio proporciona un marco completo para la investigación en juego en StarCraft II. El agente principal usa Proximal Policy Optimization (PPO) para aprender redes de política que interpretan datos de observación del entorno PySC2 y generan acciones precisas en el juego. Los desarrolladores pueden configurar capas de redes neuronales, formateo de recompensas y horarios de entrenamiento para optimizar el rendimiento. El sistema soporta multiproceso para recolección eficiente de muestras, utilidades de registro para monitorear curvas de entrenamiento y scripts de evaluación para correr políticas entrenadas contra oponentes scriptados o AI incorporados. El código está escrito en Python y aprovecha TensorFlow para definición y optimización de modelos. Los usuarios pueden extender componentes como funciones de recompensa personalizadas, preprocesamiento de estado o arquitecturas de red para fines específicos de investigación.
Destacados