Данное репозитории реализует появляющуюся коммуникацию в задачах обучения с подкреплением для нескольких агентов с помощью PyTorch. Пользователи могут настроить нейронные сети для отправителей и получателей для игры в референциальные игры или совместную навигацию, побуждая агентов развивать дискретный или непрерывный канал связи. Включены скрипты для обучения, оценки и визуализации изученных протоколов, а также утилиты для создания окружений, кодирования и декодирования сообщений. Исследователи могут расширять их пользовательскими задачами, изменять архитектуру сетей и анализировать эффективность протоколов, что способствует быстрому экспериментированию в области появления коммуникации агентов.
Что такое Multi-Agent DDPG with PyTorch & Unity ML-Agents?
Этот проект с открытым исходным кодом представляет собой полный фреймворк обучения с подкреплением для нескольких агентов на базе PyTorch и Unity ML-Agents. Включает децентрализованные алгоритмы DDPG, обертки окружения и тренировочные скрипты. Пользователи могут настраивать политики агентов, критические сети, буферы повторных данных и параллельных рабочих. Встроены хуки для логирования и мониторинга с помощью TensorBoard, а модульная структура позволяет легко внедрять пользовательские функции награды и параметры окружения. В репозитории есть примерные сцены Unity с демонстрациями задач совместной навигации, что делает его идеально подходящим для расширения и бенчмаркинга сценариев с множеством агентов в симуляциях.
Основные функции Multi-Agent DDPG with PyTorch & Unity ML-Agents