Эффективные RL 연구 решения

Используйте RL 연구 инструменты с высокой производительностью для успешной работы.

RL 연구

  • Vanilla Agents предоставляет готовые реализации DQN, PPO и A2C RL-агентов с настраиваемыми конвейерами обучения.
    0
    0
    Что такое Vanilla Agents?
    Vanilla Agents — это лёгкий фреймворк на базе PyTorch, предоставляющий модульные и расширяемые реализации основных агентов обучения с подкреплением. Он поддерживает алгоритмы DQN, Double DQN, PPO и A2C, с подключаемыми обёртками окружений, совместимыми с OpenAI Gym. Пользователи могут настраивать гиперпараметры, регистрировать метрики обучения, сохранять контрольные точки и визуализировать кривые обучения. Код организован ясно, что делает его идеальным для прототипирования, образовательных целей и бенчмаркинга новых идей в RL.
    Основные функции Vanilla Agents
    • Реализации DQN и Double DQN
    • Политика-графические агенты PPO и A2C
    • Обёртки окружений OpenAI Gym
    • Настраиваемые гиперпараметры
    • Поддержка логирования и TensorBoard
    • Сохранение и загрузка контрольных точек моделей
  • Реализация Multi-Agent Deep Deterministic Policy Gradient на базе Keras для кооперативного и соревновательного многопроAgentного обучения с подкреплением.
    0
    0
    Что такое MADDPG-Keras?
    MADDPG-Keras обеспечивает полный каркас для исследований в области обучения с подкреплением с несколькими агентами, реализуя алгоритм MADDPG в Keras. Поддерживаются непрерывные пространства действий, несколько агентов и стандартные среды OpenAI Gym. Исследователи и разработчики могут настраивать архитектуры нейронных сетей, гиперпараметры обучения и функции вознаграждения, после чего запускать эксперименты с встроенным логированием и контрольными точками для ускорения обучения политик и оценки производительности.
Рекомендуемые