В основе RxAgent-Zoo лежит реактивная RL-структура, которая рассматривает события данных из окружающей среды, буферы повторного воспроизведения и циклы обучения как наблюдаемые потоки. Пользователи могут цепочками операторов предобрабатывать наблюдения, обновлять сети и асинхронно регистрировать метрики. Библиотека поддерживает параллельную работу с окружающими средами, настраиваемые планировщики и интеграцию с популярными бенчмарками Gym и Atari. API "подключи и используй" позволяет бесшовно заменять компоненты агента, что способствует воспроизводимости, быстрому экспериментированию и масштабируемым рабочим потокам обучения.
Vanilla Agents — это лёгкий фреймворк на базе PyTorch, предоставляющий модульные и расширяемые реализации основных агентов обучения с подкреплением. Он поддерживает алгоритмы DQN, Double DQN, PPO и A2C, с подключаемыми обёртками окружений, совместимыми с OpenAI Gym. Пользователи могут настраивать гиперпараметры, регистрировать метрики обучения, сохранять контрольные точки и визуализировать кривые обучения. Код организован ясно, что делает его идеальным для прототипирования, образовательных целей и бенчмаркинга новых идей в RL.