Эффективные Глубокая Q-сеть решения

Используйте Глубокая Q-сеть инструменты с высокой производительностью для успешной работы.

Глубокая Q-сеть

  • Рамки для обучения с подкреплением на базе Python, реализующие deep Q-learning для обучения AI-агента игре офлайн-динозавра Chrome.
    0
    0
    Что такое Dino Reinforcement Learning?
    Dino Reinforcement Learning — это полный набор инструментов для обучения AI-агента играть в игру динозавров Chrome с помощью обучения с подкреплением. Интеграция с безголовым Chrome через Selenium обеспечивает захват игровых кадров в реальном времени и их обработку в представления состояний, оптимизированные для входных данных глубоких Q-сетей. В рамках реализованы модули памяти воспроизведения, эвристического исследования epsilon-greedy, моделей сверточных нейронных сетей и циклов обучения с настраиваемыми гиперпараметрами. Пользователи могут отслеживать прогресс обучения через консольные логи и сохранять контрольные точки для последующей оценки. После обучения агент может быть запущен для автономной игры или протестирован против различных архитектур моделей. Модульный дизайн облегчает замену алгоритмов RL, что делает платформу гибкой для экспериментов.
  • Открытое исходное TensorFlow-основанный агент Deep Q-Network, обучающийся играть в Atari Breakout с использованием воспроизведения опыта и целевых сетей.
    0
    0
    Что такое DQN-Deep-Q-Network-Atari-Breakout-TensorFlow?
    DQN-Deep-Q-Network-Atari-Breakout-TensorFlow обеспечивает полную реализацию алгоритма DQN, адаптированную для среды Atari Breakout. Использует сверточную нейронную сеть для приближения Q-значений, применяет воспроизведение опыта для разрыва корреляций между последовательными наблюдениями и используют периодически обновляемую целевую сеть для стабилизации обучения. Агент действует по epsilon-greedy политике для исследования и может обучаться с нуля на необработанных пиксельных входных данных. В репозитории есть файлы конфигурации, скрипты обучения для мониторинга роста наград, тестовые скрипты для проверки обученных моделей и утилиты TensorBoard для визуализации метрик обучения. Пользователи могут настраивать гиперпараметры, такие как скорость обучения, размер буфера воспроизведения и размер пакета, для экспериментирования с разными настройками.
Рекомендуемые