Эффективные replay de experiência решения

Используйте replay de experiência инструменты с высокой производительностью для успешной работы.

replay de experiência

  • Открытое исходное TensorFlow-основанный агент Deep Q-Network, обучающийся играть в Atari Breakout с использованием воспроизведения опыта и целевых сетей.
    0
    0
    Что такое DQN-Deep-Q-Network-Atari-Breakout-TensorFlow?
    DQN-Deep-Q-Network-Atari-Breakout-TensorFlow обеспечивает полную реализацию алгоритма DQN, адаптированную для среды Atari Breakout. Использует сверточную нейронную сеть для приближения Q-значений, применяет воспроизведение опыта для разрыва корреляций между последовательными наблюдениями и используют периодически обновляемую целевую сеть для стабилизации обучения. Агент действует по epsilon-greedy политике для исследования и может обучаться с нуля на необработанных пиксельных входных данных. В репозитории есть файлы конфигурации, скрипты обучения для мониторинга роста наград, тестовые скрипты для проверки обученных моделей и утилиты TensorBoard для визуализации метрик обучения. Пользователи могут настраивать гиперпараметры, такие как скорость обучения, размер буфера воспроизведения и размер пакета, для экспериментирования с разными настройками.
    Основные функции DQN-Deep-Q-Network-Atari-Breakout-TensorFlow
    • Реализация Deep Q-Network
    • Буфер воспроизведения опыта
    • Обновление целевой сети
    • Исследование epsilon-greedy
    • Визуализация в TensorBoard
  • HFO_DQN — это рамочная система обучения с подкреплением, которая применяет Deep Q-Network для обучения футбольных агентов в среде RoboCup Half Field Offense.
    0
    0
    Что такое HFO_DQN?
    HFO_DQN объединяет Python и TensorFlow, чтобы предоставить полный поток для обучения футбольных агентов с помощью Deep Q-Networks. Пользователи могут клонировать репозиторий, установить зависимости, включая симулятор HFO и библиотеки Python, и настроить параметры обучения в YAML-файлах. Этот фреймворк реализует повторный опыт, обновления целевых сетей, ε-жадное исследование и формирование наград, адаптированные для области полуценра. Включает сценарии для обучения агентов, логирование производительности, оценочные матчи и визуализацию результатов. Его модульная структура позволяет интегрировать собственные архитектуры нейронных сетей, альтернативные алгоритмы RL и стратегии координации нескольких агентов. Выходные данные включают обученные модели, метрики производительности и визуализации поведения, способствуя исследованиям в области обучения с подкреплением и многопользовательских систем.
Рекомендуемые