Open-source симулятор мультиагентного обучения с подкреплением, обеспечивающий масштабируемое параллельное обучение, настраиваемые среды и протоколы взаимодействия агентов.
MARL Simulator предназначен для эффективной и масштабируемой разработки алгоритмов мультиагентного обучения с подкреплением (MARL). Используя распределённое ядро PyTorch, он позволяет запускать параллельное обучение на нескольких GPU или узлах, значительно сокращая время экспериментов. Модульный интерфейс окружений поддерживает стандартные сценарии — такие как совместная навигация, охотник-жертва и мир в сетке, — а также пользовательские среды. Агентам доступны различные протоколы коммуникации для координации действий, обмена наблюдениями и синхронизации наград. Настраиваемые пространства наград и наблюдений обеспечивают тонкий контроль за динамикой обучения, а встроенные инструменты логирования и визуализации дают постоянный обзор показателей эффективности.
Основные функции MARL Simulator
Распределённое мультиагентное обучение через PyTorch
Модульный интерфейс окружений
Настраиваемые пространства наград и наблюдений
Протоколы коммуникации агентов
Стандартные сценарии (мир в сетке, охотник-жертва)
Данное репозитории реализует появляющуюся коммуникацию в задачах обучения с подкреплением для нескольких агентов с помощью PyTorch. Пользователи могут настроить нейронные сети для отправителей и получателей для игры в референциальные игры или совместную навигацию, побуждая агентов развивать дискретный или непрерывный канал связи. Включены скрипты для обучения, оценки и визуализации изученных протоколов, а также утилиты для создания окружений, кодирования и декодирования сообщений. Исследователи могут расширять их пользовательскими задачами, изменять архитектуру сетей и анализировать эффективность протоколов, что способствует быстрому экспериментированию в области появления коммуникации агентов.
Vanilla Agents — это лёгкий фреймворк на базе PyTorch, предоставляющий модульные и расширяемые реализации основных агентов обучения с подкреплением. Он поддерживает алгоритмы DQN, Double DQN, PPO и A2C, с подключаемыми обёртками окружений, совместимыми с OpenAI Gym. Пользователи могут настраивать гиперпараметры, регистрировать метрики обучения, сохранять контрольные точки и визуализировать кривые обучения. Код организован ясно, что делает его идеальным для прототипирования, образовательных целей и бенчмаркинга новых идей в RL.