Гибкие 強化学習 решения

Используйте многофункциональные 強化学習 инструменты, которые адаптируются под ваши нужды.

強化学習

  • Jason-RL оснащает агенты Jason BDI алгоритмами обучения с подкреплением, обеспечивая адаптивное принятие решений на основе Q-обучения и SARSA с помощью опыта получения наград.
    0
    0
    Что такое jason-RL?
    Jason-RL добавляет слой обучения с подкреплением в многопользовательскую систему Jason, позволяя агентам AgentSpeak BDI изучать политики выбора действий по наградной обратной связи. Реализует алгоритмы Q-обучения и SARSA, поддерживает настройку параметров обучения (скорость обучения, коэффициент дисконтирования, стратегию исследования) и регистрирует метрики тренировки. Определяя функции наград в планах агентов и запуская симуляции, разработчики могут наблюдать за улучшением решений агентов со временем и их адаптацией к меняющимся условиям без ручного кодирования политик.
  • MARFT — это открытый исходный код многопользовательский набор инструментов для тонкой настройки обучения с подкреплением нескольких агентов для совместных работ ИИ и оптимизации языковых моделей.
    0
    0
    Что такое MARFT?
    MARFT — это основанный на Python инструмент для больших языковых моделей (LLM), позволяющий воспроизводить эксперименты и быстро прототипировать системы совместного ИИ.
  • Платформа с открытым исходным кодом, вдохновленная Minecraft, позволяющая агентам искусственного интеллекта обучаться сложным задачам в настраиваемых 3D-песочницах.
    0
    0
    Что такое MineLand?
    MineLand предоставляет гибкую 3D-среду, вдохновленную Minecraft, для обучения агентов с усилением. Она имеет API, совместимый с Gym, для бесшовной интеграции с существующими библиотеками RL, такими как Stable Baselines, RLlib и пользовательские реализации. Пользователи имеют доступ к библиотеке задач, включая сбор ресурсов, навигацию и строительные вызовы, каждая с настраиваемой сложностью и структурой наград. В режиме реального времени, мультиагентские сценарии и безграфические режимы позволяют масштабируемое обучение и бенчмаркинг. Разработчики могут проектировать новые карты, определять пользовательские функции награды и добавлять дополнительные датчики или контроллеры. Открытый исходный код MineLand способствует воспроизводимости исследований, совместной разработке и быстрому прототипированию AI-агентов в сложных виртуальных мирах.
  • Упрощенная реализация AlphaStar на PyTorch, позволяющая обучать агента RL для StarCraft II с модульной архитектурой сети и самостоятельной игрой.
    0
    0
    Что такое mini-AlphaStar?
    mini-AlphaStar демистифицирует сложную архитектуру AlphaStar, предлагая доступную и с открытым исходным кодом платформу на PyTorch для разработки ИИ для StarCraft II. Включает пространственные кодеры признаков для входных данных экрана и миникарты, обработку не пространственных признаков, модули памяти LSTM, отдельные сети политики и оценки стоимости для выбора действий и оценки состояния. Используя обучение имитацией для начальной настройки и обучение с усилением с помощью самоигры для донастройки, он поддерживает совместимые с pysc2 обертки окружения, логирование через TensorBoard и настраиваемые гиперпараметры. Исследователи и студенты могут создавать наборы данных из игровых состояний человека, обучать модели на пользовательских сценариях, оценивать эффективность агента и визуализировать кривые обучения. Модульный код облегчает эксперименты с вариациями сети, графиками обучения и многопро Agent-и. Предназначен для образовательных целей и прототипирования, а не для промышленного использования.
  • Среда на базе Unity ML-Agents для обучения совместных многоагентных задач инспекции в настраиваемых 3D виртуальных сценариях.
    0
    0
    Что такое Multi-Agent Inspection Simulation?
    Многоагентная симуляция инспекции предоставляет комплексную платформу для моделирования и обучения нескольких автономных агентов для выполнения инспекционных задач в кооперативе в средах Unity 3D. Она интегрируется с набором инструментов Unity ML-Agents, предлагая настраиваемые сцены с целями инспекции, регулируемыми функциями наград и параметрами поведения агентов. Исследователи могут писать собственные сценарии, определять число агентов и задавать учебные планы через API на Python. Пакет поддерживает параллельное обучение, ведение логов в TensorBoard и настраиваемые наблюдения, такие как лазерные лучи, видеопотоки камер и данные о положении. Регулируя гиперпараметры и сложность среды, пользователи могут проводить бенчмарки алгоритмов обучения с подкреплением по показателям охвата, эффективности и координации. Открытый исходный код способствует расширениям для прототипирования роботов, исследований в области кооперативного ИИ и учебных демонстраций в системах с несколькими агентами.
  • Открытая среда на Python для обучения кооперативных агентов ИИ для совместного наблюдения и обнаружения нарушителей в сценариях на основе решетки.
    0
    0
    Что такое Multi-Agent Surveillance?
    Multi-Agent Surveillance предлагает гибкую симуляционную среду, в которой несколько ИИ-агентов выступают в роли хищников или жертв в дискретном мире на сетке. Пользователи могут настраивать параметры окружения, такие как размеры сетки, количество агентов, радиусы обнаружения и структуры вознаграждения. В репозитории есть классы на Python для поведения агентов, скрипты генерации сценариев, встроенная визуализация с помощью matplotlib и бесшовная интеграция с популярными библиотеками обучения с подкреплением. Это облегчает создание эталонных тестов для координации нескольких агентов, разработку нестандартных стратегий наблюдения и проведение воспроизводимых экспериментов.
  • Открытая среда моделирования на Python для обучения кооперативного управления роем дроном с помощью многоагентного обучения с подкреплением.
    0
    0
    Что такое Multi-Agent Drone Environment?
    Многоагентная среда для дронов — это Python-пакет, предлагающий настраиваемую симуляцию для роев UAV, основанную на OpenAI Gym и PyBullet. Пользователи задают несколько агентов, моделирующих кинематические и динамические характеристики, для выполнения кооперативных задач, таких как ф formation flying , слежение за целью и обход препятствий. Среда поддерживает модульную настройку задач, реалистичное обнаружение столкновений и моделирование сенсоров, а также возможность создавать пользовательские функции награды и децентрализованные политики. Разработчики могут интегрировать собственные алгоритмы обучения с подкреплением, оценивать их эффективность в различных сценариях и визуализировать траектории и показатели работы агентов в реальном времени. Благодаря открытой архитектуре она стимулирует вклад сообщества, что делает её подходящей для исследований, обучения и прототипирования сложных систем управления множеством агентов.
  • Координирует несколько автономных агентов по сбору отходов с помощью обучения с подкреплением для эффективной оптимизации маршрутов сбора.
    0
    0
    Что такое Multi-Agent Autonomous Waste Collection System?
    Многоагентная система автономного сбора отходов — исследовательская платформа, которая использует обучение с подкреплением для обучения отдельных роботов-сборщиков отходов сотрудничеству при планировании маршрутов. Агенты обучаются избегать избыточного покрытия, минимизировать путь и реагировать на динамические модели генерации отходов. Разработан на Python, система включает среду моделирования для тестирования и корректировки политик перед внедрением в реальной среде. Пользователи могут настраивать карты, точки сдачи отходов, датчики агентов и структуры вознаграждений для адаптации поведения к конкретным городским районам или операционным ограничениям.
  • Реализует децентрализованное многопроagentное обучение с использованием DDPG с PyTorch и Unity ML-Agents для совместного обучения агентов.
    0
    0
    Что такое Multi-Agent DDPG with PyTorch & Unity ML-Agents?
    Этот проект с открытым исходным кодом представляет собой полный фреймворк обучения с подкреплением для нескольких агентов на базе PyTorch и Unity ML-Agents. Включает децентрализованные алгоритмы DDPG, обертки окружения и тренировочные скрипты. Пользователи могут настраивать политики агентов, критические сети, буферы повторных данных и параллельных рабочих. Встроены хуки для логирования и мониторинга с помощью TensorBoard, а модульная структура позволяет легко внедрять пользовательские функции награды и параметры окружения. В репозитории есть примерные сцены Unity с демонстрациями задач совместной навигации, что делает его идеально подходящим для расширения и бенчмаркинга сценариев с множеством агентов в симуляциях.
  • Открытая платформа для многоагентного ИИ для совместного отслеживания объектов в видео с использованием глубокого обучения и укрепленного принятия решений.
    0
    0
    Что такое Multi-Agent Visual Tracking?
    Многоагентное визуальное отслеживание реализует распределенную систему, состоящую из интеллектуальных агентов, которые обмениваются информацией для повышения точности и устойчивости отслеживания объектов в видео. Агенты используют сверточные нейронные сети для обнаружения, делятся наблюдениями для обработки заслонок, корректируют параметры отслеживания с помощью обучения с подкреплением. Совместимо с популярными наборами данных видео, поддерживает обучение и прогнозирование в реальном времени. Пользователи легко интегрируют его в существующие пайплайны и расширяют поведение агентов под индивидуальные задачи.
  • Открытая платформа с несколькими агентами для обучения с подкреплением, позволяющая управлять агентами на уровне команды и взаимодействовать в StarCraft II через PySC2.
    0
    0
    Что такое MultiAgent-Systems-StarCraft2-PySC2-Raw?
    MultiAgent-Systems-StarCraft2-PySC2-Raw предоставляет полный инструментарий для разработки, обучения и оценки нескольких AI-агентов в StarCraft II. Он обеспечивает низкоуровневое управление движением юнитов, целью и способностями, а также гибкую настройку наград и сценариев. Пользователи могут легко интегрировать собственные архитектуры нейронных сетей, определять стратегии командного взаимодействия и записывать метрики. Основанный на PySC2, он поддерживает параллельное обучение, создание снимков и визуализацию, что делает его идеальным для исследований в области обучения с подкреплением с несколькими агентами.
  • Многоагентная среда обучения с подкреплением на базе Python для разработки и моделирования кооперативных и соревновательных AI-агентов.
    0
    0
    Что такое Multiagent_system?
    Multiagent_system предлагает полноценный набор инструментов для построения и управления средами с несколькими агентами. Пользователи могут задавать собственные сценарии моделирования, описывать поведение агентов и использовать предустановленные алгоритмы, такие как DQN, PPO и MADDPG. Фреймворк поддерживает синхронное и асинхронное обучение, позволяя агентам взаимодействовать одновременно или по очереди. Встроенные модули коммуникации облегчают обмен сообщениями между агентами для кооперативных стратегий. Конфигурация экспериментов упрощена с помощью YAML-файлов, а результаты автоматически сохраняются в формате CSV или в TensorBoard. Скрипты визуализации помогают интерпретировать траектории агентов, динамику наград и схемы коммуникации. Разработан для исследовательских и производственных задач, Multiagent_system легко масштабируется от одиночных прототипов до распределенного обучения на GPU-кластеров.
  • Многоагентская симуляционная платформа на Python, позволяющая одновременно сотрудничать, соревноваться и обучать агентов в настраиваемых окружениях.
    0
    1
    Что такое MultiAgentes?
    MultiAgentes использует модульную архитектуру для определения окружений и агентов, поддерживая синхронные и асинхронные взаимодействия между агентами. Включает базовые классы для окружений и агентов, предопределённые сценарии совместных и соревновательных задач, инструменты для настройки функций вознаграждения и API для обмена сообщениями и совместного использования наблюдений. Инструменты визуализации обеспечивают мониторинг поведения агентов в реальном времени, при этом модули логирования записывают метрики производительности для анализа. Фреймворк легко интегрируется с совместимыми с Gym библиотеками RL, позволяя обучать агентов с помощью существующих алгоритмов. MultiAgentes спроектирован с расчётом на расширяемость, позволяя разработчикам добавлять новые шаблоны окружений, типы агентов и протоколы связи для удовлетворения потребностей различных исследований и образовательных целей.
  • Открытая платформа для реализации и оценки стратегий многопротокольного ИИ в классической игре Pacman.
    0
    0
    Что такое MultiAgentPacman?
    MultiAgentPacman предлагает среду для игры на Python, в которой пользователи могут реализовывать, визуализировать и сравнивать нескольких AI-агентов в области Pacman. Поддерживаются алгоритмы поиска противника, такие как minimax, expectimax, alpha-beta-отсечение, а также пользовательные агенты на основе обучения с подкреплением или эвристик. Фреймворк включает простое GUI, командную строку и инструменты для ведения статистики игр и сравнения эффективности агентов в соревновательных или совместных сценариях.
  • Открытая платформа на Python, позволяющая проектировать, обучать и оценивать системы многоагентного обучения с подкреплением, как кооперативные, так и конкурентные.
    0
    0
    Что такое MultiAgentSystems?
    MultiAgentSystems предназначена для упрощения процесса создания и оценки приложений многоагентного обучения с подкреплением (MARL). Платформа включает реализации современных алгоритмов, таких как MADDPG, QMIX, VDN, а также централизованное обучение с децентрализованным исполнением. В ней реализованы модульные обертки для сред OpenAI Gym, протоколы коммуникации между агентами и утилиты для журналирования метрик, таких как награда и сходимость. Исследователи могут настраивать архитектуры агентов, гиперпараметры, моделировать сценарии, включая совместную навигацию, распределение ресурсов и противоборствующие игры. Благодаря встроенной поддержке PyTorch, ускорению на GPU и интеграции с TensorBoard, MultiAgentSystems ускоряет эксперименты и бенчмаркинг в области коллаборативного и соревновательного многоагентного обучения.
  • Рамка обучения с усилением для обучения политик навигации для нескольких роботов без столкновений в имитационных средах.
    0
    0
    Что такое NavGround Learning?
    NavGround Learning предоставляет полный набор инструментов для разработки и бенчмаркинга агентов обучения с усилением в задачах навигации. Поддерживаются мультиигровые симуляции, моделирование столкновений, настраиваемые сенсоры и исполнительные устройства. Пользователи могут выбирать из предопределённых шаблонов политик или реализовывать собственные архитектуры, обучаться передовыми RL-алгоритмами и визуализировать показатели производительности. Интеграция с OpenAI Gym и Stable Baselines3 упрощает управление экспериментами, а встроенные инструменты логирования и визуализации позволяют углубленный анализ поведения агентов и динамики обучения.
  • OpenSpiel предоставляет библиотеку окружений и алгоритмов для исследований в области обучения с укреплением и игрового планирования теории игр.
    0
    0
    Что такое OpenSpiel?
    OpenSpiel — это исследовательский фреймворк, обеспечивающий широкий спектр окружений (от простых матричных игр до сложных настольных игр, таких как шахматы, го и покер) и реализующий различные алгоритмы обучения с укреплением и поиска (например, итерацию значений, градиент политики, Монтекарло-дерево поиска). Его модульное ядро на C++ и привязки к Python позволяют пользователям вставлять собственные алгоритмы, определять новые игры и сравнивать эффективность на стандартных бенчмарках. Спроектированный с учетом расширяемости, он поддерживает сценарии с одним и несколькими агентами, позволяя изучать кооперативные и соревновательные ситуации. Исследователи используют OpenSpiel для быстрого прототипирования алгоритмов, проведения масштабных экспериментов и обмена воспроизводимым кодом.
  • Pits and Orbs предоставляет многопользовательскую среду на клетчатом поле, где ИИ-агенты избегают ловушек, собирают сферы и соревнуются в пошаговых сценариях.
    0
    0
    Что такое Pits and Orbs?
    Pits and Orbs — это открытая среда для обучения с усилением, реализованная на Python, предлагающая пошаговый многопользовательский мир с клетчатой сеткой, в которой агенты преследуют цели и сталкиваются с опасностями окружающей среды. Каждый агент должен перемещаться по настраиваемой сетке, избегать случайных ловушек, которые штрафуют или завершают эпизоды, и собирать сферы для положительных наград. Среда поддерживает как соревновательные, так и кооперативные режимы, позволяя исследовать различные сценарии обучения. Простая API легко интегрируется с популярными RL-библиотеками, такими как Stable Baselines и RLlib. Основные возможности включают регулируемые размеры сетки, динамическое распределение ловушек и сфер, настраиваемые структуры наград и опциональный логинг для анализа тренировки.
  • Фреймворк на Python, позволяющий разрабатывать и обучать AI-агентов для участия в боях Pokémon с использованием обучения с подкреплением.
    0
    1
    Что такое Poke-Env?
    Poke-Env предназначен для упрощения создания и оценки AI-агентов для боёв Pokémon Showdown через всесторонний интерфейс на Python. Он управляет коммуникацией с сервером Pokémon Showdown, парсит данные игрового состояния и управляет действиями по раунду через архитектуру, основанную на событиях. Пользователи могут расширять базовые классы игроков для реализации индивидуальных стратегий с использованием обучения с подкреплением или эвристических алгоритмов. В рамках этого фреймворка встроена поддержка симуляций боёв, параллельных матчей и детального логирования действий, наград и результатов для воспроизводимых исследований. А abstraction'я низкоуровневых сетевых и парсинговых задач позволяет AI-исследователям и разработчикам сосредоточиться на проектировании алгоритмов, настройке производительности и сравнительном бенчмаркинге стратегий боя.
  • PyBrain: Модульная библиотека на Python для машинного обучения и нейронных сетей.
    0
    0
    Что такое pybrain.org?
    PyBrain, сокращенное от Python-Based Reinforcement Learning, Artificial Intelligence, and Neural Networks Library, является модульной и открытой библиотекой, предназначенной для задач машинного обучения. Она поддерживает создание нейронных сетей, обучение с подкреплением и другие AI-алгоритмы. С мощными и простыми в использовании алгоритмами PyBrain предоставляет ценный инструмент как для разработчиков, так и для исследователей, стремящихся решить различные проблемы машинного обучения. Библиотека плавно интегрируется с другими библиотеками Python и подходит для задач, начиная от простого контролируемого обучения до сложных сценариев обучения с подкреплением.
Рекомендуемые