Vanilla Agents es un marco liviano basado en PyTorch que proporciona implementaciones modulares y extensibles de agentes de aprendizaje por refuerzo fundamentales. Soporta algoritmos como DQN, Double DQN, PPO y A2C, con envoltorios de entorno en plug-in compatibles con OpenAI Gym. Los usuarios pueden configurar hiperparámetros, registrar métricas de entrenamiento, guardar puntos de control y visualizar curvas de aprendizaje. La base de código está organizada para la claridad, siendo ideal para prototipado de investigación, uso educativo y benchmarking de nuevas ideas en RL.
mini-AlphaStar desmitifica la arquitectura compleja de AlphaStar ofreciendo un marco accesible y de código abierto en PyTorch para el desarrollo de IA en StarCraft II. Incluye codificadores de características espaciales para entradas de pantalla y minimapa, procesamiento de características no espaciales, módulos de memoria LSTM, y redes separadas de política y valor para la selección de acciones y evaluación del estado. Utiliza aprendizaje por imitación para comenzar y aprendizaje por refuerzo con auto-juego para afinar, soporta wrappers de entorno compatibles con pysc2, registro con TensorBoard y hiperparámetros configurables. Investigadores y estudiantes pueden generar conjuntos de datos a partir de partidas humanas, entrenar modelos en escenarios personalizados, evaluar el rendimiento del agente y visualizar curvas de aprendizaje. La base modular del código facilita experimentar con variantes de redes, programas de entrenamiento y configuraciones multi-agente. Diseñado para educación y prototipado, no para despliegue en producción.