Гибкие 強化學習 решения

Используйте многофункциональные 強化學習 инструменты, которые адаптируются под ваши нужды.

強化學習

  • Среда Python Pygame для разработки и тестирования агентов автономного вождения с усиленным обучением на настраиваемых трассах.
    0
    0
    Что такое SelfDrivingCarSimulator?
    SelfDrivingCarSimulator — это легкий фреймворк на Python, основанный на Pygame, предоставляющий 2D-окружение для обучения агентов автономных транспортных средств с использованием усиленного обучения. Он поддерживает настроенные макеты трасс, конфигурируемые модели датчиков (например, имитацию LiDAR и камеры), визуализацию в реальном времени и сбор данных для анализа производительности. Разработчики могут интегрировать свои алгоритмы RL, регулировать параметры физики и мониторить такие показатели, как скорость, частота столкновений и функции награждения, для быстрого итеративного развития исследований и образовательных проектов по автопилотированию.
  • Python-фреймворк, позволяющий проектировать, моделировать и обучать с помощью обучения с укреплением кооперативные многопользовательские системы.
    0
    0
    Что такое MultiAgentModel?
    MultiAgentModel предоставляет единый API для определения пользовательских окружений и классов агентов для сценариев с множеством агентов. Разработчики могут задавать пространства наблюдения и действий, структуры награды и каналы связи. Встроенная поддержка популярных RL-алгоритмов, таких как PPO, DQN и A2C, позволяет тренировать модели с минимальной настройкой. Инструменты визуализации в реальном времени помогают отслеживать взаимодействия агентов и показатели их эффективности. Модульная архитектура обеспечивает легкую интеграцию новых алгоритмов и пользовательских модулей. Также включает гибкую систему конфигурации для настройки гиперпараметров, утилиты логирования для отслеживания экспериментов и совместимость с OpenAI Gym для бесшовной портативности. Пользователи могут совместно работать над общими окружениями и воспроизводить зафиксированные сессии для анализа.
  • Открытая источниковая Python-рамка с агентами ИИ на базе Pacman для реализации алгоритмов поиска, состязательной игры и обучения с подкреплением.
    0
    0
    Что такое Berkeley Pacman Projects?
    Репозиторий Berkeley Pacman Projects предлагает модульную кодовую базу на Python, в которой пользователи могут создавать и тестировать агентов ИИ в лабиринте Pacman. Мы руководствуемся обучением без предварительной информации и с ней (DFS, BFS, A*), состязательным многоагентным поиском (minimax, alpha-beta-отсечение) и обучением с подкреплением (Q-обучение с извлечением признаков). Встроенные графические интерфейсы визуализируют поведение агентов в реальном времени; встроенные тесты и автоградера проверяют правильность. Итеративно совершенствуя алгоритмы, пользователи приобретают практический опыт в исследовании пространства состояний, проектировании эвристик, состязательном рассуждении и обучении на основе наград в рамках единой игровой среды.
  • BomberManAI — это агент ИИ на базе Python, который самостоятельно ориентируется и борется в средах игры Bomberman, используя поисковые алгоритмы.
    0
    0
    Что такое BomberManAI?
    BomberManAI — это агент ИИ, разработанный для автономной игры в классическую игру Bomberman. Написанный на Python, он взаимодействует с игровой средой, чтобы в реальном времени воспринимать состояние карты, доступные ходы и позиции соперников. Основной алгоритм сочетает поиск A*, поиск в ширину для анализа достижимости и эвристическую функцию оценки для определения оптимальных мест для установки бомб и стратегий уклонения. Агент управляет динамическими препятствиями, усилителями и несколькими противниками по различным макетам карт. Его модульная архитектура позволяет разработчикам экспериментировать с пользовательскими эвристиками, модулями обучения с усилением или альтернативными стратегиями принятия решений. Идеально подходит для исследователей игровой ИИ, студентов и разработчиков соревновательных ботов, BomberManAI предоставляет гибкую основу для тестирования и улучшения автономных игровых агентов.
  • Открытая фреймворк на базе PyTorch, реализующий архитектуру CommNet для многопользовательского обучения с подкреплением с межагентской коммуникацией, что позволяет совместное принятие решений.
    0
    0
    Что такое CommNet?
    CommNet — это библиотека ориентированная на исследования, реализующая архитектуру CommNet, позволяющую нескольким агентам делиться скрытыми состояниями на каждом шаге времени и обучаться координировать действия в кооперативных средах. Включает определения моделей PyTorch, скрипты обучения и оценки, оболочки среды для OpenAI Gym и утилиты для настройки каналов связи, количества агентов и глубины сети. Исследователи и разработчики могут использовать CommNet для прототипирования и бенчмаркинга стратегий межагентской коммуникации в задачах навигации, преследования–уклонения и сбора ресурсов.
  • Настраиваемая библиотека сред для обучения с подкреплением для оценки агентов ИИ на задачах обработки и анализа данных.
    0
    0
    Что такое DataEnvGym?
    DataEnvGym предлагает коллекцию модульных и настраиваемых сред, построенных на API Gym, что облегчает исследования в области обучения с подкреплением в сферах, основанных на данных. Исследователи и инженеры могут выбрать встроенные задачи, такие как очистка данных, создание признаков, планирование пакетных задач и потоковая аналитика. Фреймворк поддерживает бесшовную интеграцию с популярными библиотеками RL, стандартизированные метрики оценки и инструменты логирования для отслеживания эффективности агентов. Пользователи могут расширять или объединять среды для моделирования сложных конвейеров данных и оценки алгоритмов в реалистичных условиях.
  • Платформа на базе Java, позволяющая разрабатывать, моделировать и развертывать интеллектуальные системы множественных агентов с возможностями коммуникации, переговоров и обучения.
    0
    0
    Что такое IntelligentMASPlatform?
    IntelligentMASPlatform создавалась для ускорения разработки и развертывания систем с несколькими агентами, предлагая модульную архитектуру с отдельными слоями для агентов, окружения и сервисов. Агенты взаимодействуют через совместимую с FIPA коммуникацию ACL, что обеспечивает динамические переговоры и координацию. В платформу входит универсальный моделятор окружения, позволяющий моделировать сложные сценарии, планировать задачи агентов и визуализировать взаимодействия в реальном времени с помощью встроенной панели. Для расширенного поведения реализованы модули обучения с подкреплением и поддерживаются пользовательские плагины поведения. Инструменты развертывания позволяют упаковать агентов в автономные приложения или распределенные сети. Также API платформы обеспечивает интеграцию с базами данных, IoT-устройствами и сторонними сервисами ИИ, что делает её подходящей для исследований, промышленной автоматизации и умных городов.
  • Фреймворк на PyTorch, позволяющий агентам обучать появляющиеся протоколы коммуникации в задачах мног Agents reinforcement learning.
    0
    0
    Что такое Learning-to-Communicate-PyTorch?
    Данное репозитории реализует появляющуюся коммуникацию в задачах обучения с подкреплением для нескольких агентов с помощью PyTorch. Пользователи могут настроить нейронные сети для отправителей и получателей для игры в референциальные игры или совместную навигацию, побуждая агентов развивать дискретный или непрерывный канал связи. Включены скрипты для обучения, оценки и визуализации изученных протоколов, а также утилиты для создания окружений, кодирования и декодирования сообщений. Исследователи могут расширять их пользовательскими задачами, изменять архитектуру сетей и анализировать эффективность протоколов, что способствует быстрому экспериментированию в области появления коммуникации агентов.
  • Моделирует динамические переговоры в электронной коммерции с использованием настраиваемых AI-агентов покупателя и продавца с протоколами переговоров и визуализацией.
    0
    0
    Что такое Multi-Agent-Seller?
    Multi-Agent-Seller предоставляет модульную среду для моделирования переговоров в электронной коммерции с использованием AI-агентов. Включает готовых агентов покупателя и продавца с настраиваемыми стратегиями переговоров, такими как динамическое ценообразование, уступки по времени и принятие решений на основе полезности. Пользователи могут определять собственные протоколы, форматы сообщений и рыночные условия. Фреймворк управляет сессиями, отслеживает предложения и ведет журнал результатов с встроенными средствами визуализации для анализа взаимодействий агентов. Легко интегрируется с библиотеками машинного обучения для разработки стратегий, позволяя экспериментировать с обучением с подкреплением или правилами. Расширяемая архитектура позволяет добавлять новые типы агентов, правила переговоров и плагины визуализации. Multi-Agent-Seller идеально подходит для тестирования алгоритмов с несколькими агентами, изучения поведения переговоров и преподавания концепций в областях AI и электронной коммерции.
  • NeuralABM обучает агентов на базе нейронных сетей моделировать сложные поведения и среды в сценариях агентного моделирования.
    0
    0
    Что такое NeuralABM?
    NeuralABM — это open-source библиотека на Python, использующая PyTorch для интеграции нейронных сетей в агентное моделирование. Пользователи могут задавать архитектуру агентов в виде нейронных модулей, определять динамику среды и обучать поведение агентов с помощью обратного распространения ошибок на этапах симуляции. Фреймворк поддерживает пользовательские сигналы вознаграждения, обучение по куррикулуму и синхронное или асинхронное обновление, что позволяет исследовать возникающие феномены. В комплект входят утилиты для логирования, визуализации и экспорта наборов данных, что позволяет исследователям и разработчикам анализировать производительность агентов, отлаживать модели и оптимизировать дизайн симуляций. NeuralABM упрощает сочетание обучения с подкреплением и ABM для приложений в области социальных наук, экономики, робототехники и AI-управляемого поведения NPC в играх. Он предоставляет модульные компоненты для настройки среды, поддерживает взаимодействие нескольких агентов и позволяет внедрять внешние датасеты или API для реальных симуляций. Открытая архитектура способствует воспроизводимости и совместной работе благодаря ясной конфигурации экспериментов и интеграции систем контроля версий.
  • Открытая платформа, позволяющая обучать, внедрять и оценивать модели многопроцессорного обучения с подкреплением для кооперативных и соревновательных задач.
    0
    0
    Что такое NKC Multi-Agent Models?
    Многопроцессорные модели NKC предоставляют исследователям и разработчикам все необходимые инструменты для проектирования, обучения и оценки систем с несколькими агентами. Они включают модульную архитектуру, позволяющую определять пользовательские политики агентов, динамику окружающей среды и структуры вознаграждения. Точная интеграция с OpenAI Gym позволяет быстро создавать прототипы, а поддержка TensorFlow и PyTorch обеспечивает гибкость выбора платформы обучения. В платформе реализованы утилиты для повторного обхода опыта, централизованного обучения с раздельным выполнением и распределенного обучения на нескольких GPU. Расширенные модули для логирования и визуализации собирают показатели выполнения, способствуя бенчмаркингу и настройке гиперпараметров. Упрощая настройку сценариев с кооперативными, соревновательными и смешанными мотивациями, NKC позволяет ускорить эксперименты в области автономных транспортных средств, робототехнических рой и игровых ИИ.
  • Открытый агент обучения с подкреплением, который учится играть в Pacman, оптимизируя стратегии навигации и избегания призраков.
    0
    0
    Что такое Pacman AI?
    Pacman AI предлагает полностью функциональную среду на Python и платформу для агентов для классической игры Pacman. Проект реализует основные алгоритмы обучения с подкреплением—Q-обучение и итерацию ценностей—для обучения агентов оптимальным политикам сбора пилюль, навигации по лабиринту и избегания призраков. Пользователи могут задавать собственные функции наград и настраивать гиперпараметры, такие как скорость обучения, коэффициент дисконтирования и стратегию исследования. Эта платформа поддерживает ведение метрик, визуализацию производительности и воспроизводимость экспериментов. Спроектирована для легкой расширяемости, что позволяет исследователям и студентам внедрять новые алгоритмы или нейросетевые подходы и сравнивать их с базовыми методами на сетке в области Pacman.
  • Объемная RL-рамочная база, предлагающая инструменты обучения и оценки PPO, DQN для разработки сопернических агентов в игре Pommerman.
    0
    0
    Что такое PommerLearn?
    PommerLearn позволяет исследователям и разработчикам обучать многоагентных RL-ботов в среде игры Pommerman. Включает готовые реализации популярных алгоритмов (PPO, DQN), гибкие конфигурационные файлы для гиперпараметров, автоматическое логирование и визуализацию метрик обучения, контрольные точки моделей и скрипты оценки. Его модульная архитектура облегчает расширение новыми алгоритмами, настройку среды и интеграцию с стандартными ML-библиотеками, такими как PyTorch.
  • Легкая библиотека Python для создания настраиваемых 2D-окружающих сред для обучения и тестирования агентов с усиленным обучением.
    0
    0
    Что такое Simple Playgrounds?
    Simple Playgrounds предоставляет модульную платформу для построения интерактивных 2D-окружающих сред, где агенты могут исследовать лабиринты, взаимодействовать с объектами и выполнять задачи. Пользователи определяют макеты окружения, поведение объектов и функции наград с помощью простых сценариев YAML или Python. Встроенный рендерер Pygame обеспечивает визуализацию в реальном времени, а API, основанный на шагах, гарантирует лёгкую интеграцию с библиотеками обучения с укреплением, такими как Stable Baselines3. Поддержка мультиагентных настроек, обнаружение столкновений и настраиваемые параметры физических моделей делают Simple Playgrounds удобной платформой для прототипирования, тестирования и образовательных демонстраций алгоритмов ИИ.
  • Открытая библиотека PyTorch, обеспечивающая модульные реализации агентов обучения с подкреплением, таких как DQN, PPO, SAC и другие.
    0
    0
    Что такое RL-Agents?
    RL-Agents — это научный уровень фреймворка обучения с подкреплением, построенного на PyTorch, объединяющего популярные RL-алгоритмы из методов, основанных на ценности, политике и акторе-критике. Библиотека включает модульный API агентов, GPU-ускорение, бесшовную интеграцию с OpenAI Gym и встроенные инструменты логирования и визуализации. Пользователи могут настраивать гиперпараметры, адаптировать циклы обучения и тестировать производительность с помощью нескольких строк кода, что делает RL-Agents идеальным выбором для академических исследований, прототипирования и промышленного эксперимента.
  • Рамочная система обучения с подкреплением, позволяющая автономным роботам ориентироваться и избегать столкновений в многоагентных средах.
    0
    0
    Что такое RL Collision Avoidance?
    RL Collision Avoidance предоставляет полный конвейер для разработки, обучения и внедрения политик избегания столкновений для мульти-роботов. Предлагает набор сценариев симуляции, совместимых с Gym, где агенты учатся избегать столкновений с помощью алгоритмов обучения с подкреплением. Пользователи могут настраивать параметры окружения, использовать GPU для ускоренного обучения и экспортировать полученные политики. Фреймворк также интегрирован с ROS для тестирования в реальных условиях, поддерживает предварительно обученные модели для немедленной оценки и оснащен инструментами для визуализации траекторий агентов и метрик производительности.
  • Простейшее самостоятельное обучение — это библиотека Python, предоставляющая простые API для создания, обучения и оценки агентов обучения с усилением.
    0
    0
    Что такое dead-simple-self-learning?
    Простейшее самостоятельное обучение предлагает разработчикам очень простой способ создавать и обучать агентов обучения с усилением на Python. Фреймворк абстрагирует основные компоненты RL, такие как оболочки окружений, модули политик и буферы опыта в лаконичные интерфейсы. Пользователи могут быстро инициализировать окружения, определять пользовательские политики с помощью знакомых бэкендов PyTorch или TensorFlow, запускать обучающие циклы с встроенным логированием и сохранением контрольных точек. Библиотека поддерживает on-policy и off-policy алгоритмы, что позволяет гибко экспериментировать с Q-обучением, градиентами политики и методами актор-критик. Снижая объем шаблонного кода, простое самообучение позволяет специалистам, педагогам и исследователям быстро прототипировать алгоритмы, проверять гипотезы и визуализировать эффективность агентов с минимальной настройкой. Его модульная структура облегчает интеграцию с существующими ML-стеками и пользовательскими окружениями.
  • SoccerAgent использует многопроцессное обучение с подкреплением для обучения AI-игроков для реалистичных футбольных симуляций и оптимизации стратегии.
    0
    0
    Что такое SoccerAgent?
    SoccerAgent — это специализированная система ИИ, разработанная для создания и обучения автономных футбольных агентов с использованием современных методов многопроцессного обучения с подкреплением (MARL). Она моделирует реалистичные футбольные матчи в 2D или 3D, предлагая инструменты для определения функций вознаграждения, настройки характеристик игроков и реализации стратегических тактик. Пользователи могут интегрировать популярные алгоритмы RL (такие как PPO, DDPG и MADDPG) через встроенные модули, отслеживать прогресс обучения через панели управления и визуализировать поведение агентов в реальном времени. Эта система поддерживает обучение сценариев для атаки, защиты и протоколов координации. Благодаря расширяемому коду и детальной документации SoccerAgent позволяет исследователям и разработчикам анализировать динамику команд и совершенствовать стратегии игры на базе ИИ для учебных и коммерческих проектов.
  • Открытый агент обучения с подкреплением, использующий PPO для обучения и игры в StarCraft II через среду PySC2 от DeepMind.
    0
    0
    Что такое StarCraft II Reinforcement Learning Agent?
    Данный репозиторий предоставляет полноценную рамочную платформу для исследований в области обучения с подкреплением в игре StarCraft II. Основной агент использует Proximal Policy Optimization (PPO) для обучения сетей политики, интерпретирующих данные наблюдений из среды PySC2 и выдающих точные действия в игре. Разработчики могут настраивать слои нейронных сетей, формирование вознаграждений и графики обучения для оптимизации производительности. Система поддерживает многопоточность для эффективного сбора образцов, утилиты логирования для мониторинга кривых обучения и скрипты оценки для тестирования обученных моделей против скриптованных или встроенных ИИ-оппонентов. Код написан на Python и использует TensorFlow для определения и оптимизации моделей. Пользователи могут расширять компоненты, такие как пользовательские функции вознаграждения, предварительная обработка состояния или архитектура сети, для достижения конкретных целей исследования.
  • RL-базированный AI-агент, который учится оптимальным стратегиям ставок для эффективной игры в Heads-up limit Texas Hold'em poker.
    0
    0
    Что такое TexasHoldemAgent?
    TexasHoldemAgent представляет собой модульную среду, основанную на Python, для обучения, оценки и развертывания AI-игрока в Heads-up limit Texas Hold’em. Она интегрирует собственный симуляционный движок с алгоритмами глубокого усиленного обучения, включая DQN, для итеративного улучшения политики. Основные функции включают кодирование состояния руки, определение пространства действий (чего folded, call, raise), формирование вознаграждения и оценку решений в реальном времени. Пользователи могут настраивать параметры обучения, использовать ускорение на CPU/GPU, отслеживать ход тренировки и загружать или сохранять обученные модели. Фреймворк поддерживает пакетное моделирование для тестирования стратегий, генерации метрик эффективности и визуализации коэффициента побед, что позволяет исследователям, разработчикам и любителям покера экспериментировать с AI-стратегиями игры.
Рекомендуемые