Открытая многопользовательская платформа, позволяющая реализовать коммуникацию на основе возникающего языка для масштабируемого совместного принятия решений и исследования окружающей среды.
multi_agent_celar представляет собой модульную платформу ИИ, позволяющую осуществлять коммуникацию между несколькими интеллектуальными агентами на основе возникающего языка в симулированных окружениях. Пользователи могут задавать поведения агентов через файлы политик, настраивать параметры окружения и запускать сессии совместного обучения, в ходе которых агенты развивают собственные протоколы связи для решения кооперативных задач. В состав фреймворка входят скрипты оценки, инструменты визуализации и поддержка масштабируемых экспериментов, что делает его идеальным для исследований в области мультиагентного взаимодействия, возникающих языков и процессов принятия решений.
Основные функции multi_agent_celar
Протоколы коммуникации на основе возникающего языка
Что такое StarCraft II Reinforcement Learning Agent?
Данный репозиторий предоставляет полноценную рамочную платформу для исследований в области обучения с подкреплением в игре StarCraft II. Основной агент использует Proximal Policy Optimization (PPO) для обучения сетей политики, интерпретирующих данные наблюдений из среды PySC2 и выдающих точные действия в игре. Разработчики могут настраивать слои нейронных сетей, формирование вознаграждений и графики обучения для оптимизации производительности. Система поддерживает многопоточность для эффективного сбора образцов, утилиты логирования для мониторинга кривых обучения и скрипты оценки для тестирования обученных моделей против скриптованных или встроенных ИИ-оппонентов. Код написан на Python и использует TensorFlow для определения и оптимизации моделей. Пользователи могут расширять компоненты, такие как пользовательские функции вознаграждения, предварительная обработка состояния или архитектура сети, для достижения конкретных целей исследования.
Основные функции StarCraft II Reinforcement Learning Agent