Эффективные パフォーマンスロギング решения

Используйте パフォーマンスロギング инструменты с высокой производительностью для успешной работы.

パフォーマンスロギング

  • Соединяет симулятор полетов X-Plane с OpenAI Gym для обучения агентов обучения с подкреплением для реалистичного управления самолетом через Python.
    0
    0
    Что такое GYM_XPLANE_ML?
    GYM_XPLANE_ML оборачивает симулятор полетов X-Plane как среду OpenAI Gym, предоставляя управление газом, рулем высоты, элеронами и рулем направления как пространства действий, а такие параметры полета, как высота, скорость и ориентация, как наблюдения. Пользователи могут писать сценарии обучения на Python, выбирать предопределенные сценарии или настраивать контрольные точки, погодные условия и модели самолетов. Библиотека обеспечивает низколатентную связь с X-Plane, выполнение эпизодов в синхронном режиме, логирование метрик и поддержку рендеринга в реальном времени для отладки. Она способствует итеративной разработке автопилотов на базе ML и экспериментальных алгоритмов RL в фотореалистичной среде полетов.
    Основные функции GYM_XPLANE_ML
    • Обертка API OpenAI Gym для X-Plane
    • Настраиваемые пространства наблюдений и действий
    • Встроенные сценарии полета и поддержка путевых точек
    • Низколатентная UDP-связь с X-Plane
    • Реалтайм рендеринг и логирование производительности
    • Настройка сценариев и погоды
  • MAPF_G2RL — это фреймворк на Python для обучения агентов глубокого усиленного обучения для эффективного поиска путей среди нескольких агентов на графах.
    0
    0
    Что такое MAPF_G2RL?
    MAPF_G2RL — это открытая исследовательская среда, соединяющая теорию графов и глубокое усиленное обучение для решения задачи поиска путей с несколькими агентами (MAPF). Она кодирует узлы и ребра в векторные представления, определяет пространственные и коллизионно-осведомленные функции награды, поддерживает различные алгоритмы RL, такие как DQN, PPO и A2C. Фреймворк автоматизирует создание сценариев, генерируя случайные графы или импортируя карты реального мира, а также управляет циклами обучения, оптимизирующими политики для нескольких агентов одновременно. После обучения агенты оцениваются в симуляционных средах по показателям оптимальности маршрутов, времени выполнения и уровню успеха. Его модульный дизайн позволяет исследователям расширять ключевые компоненты, интегрировать новые методы MARL и проводить сравнение с классическими решателями.
Рекомендуемые