Эффективные приоритетные эвристики MAPF (ePH-MAPF) быстро вычисляют маршруты нескольких агентов без столкновений в сложных условиях, используя инкрементальный поиск и эвристики.
ePH-MAPF обеспечивает эффективный процесс вычисления путей без столкновений для десятков и сотен агентов на сеточных картах. Использует приоритетные эвристики, техники инкрементального поиска и настраиваемые метрики стоимости (Манхэттен, Евклид), чтобы сбалансировать скорость и качество решения. Пользователи могут выбрать разные эвристические функции, интегрировать библиотеку в системы на Python и тестировать производительность на стандартных сценариях MAPF. Код модульный и хорошо документирован, что позволяет исследователям и разработчикам расширять его для динамических препятствий или специализированных сред.
Основные функции ePH-MAPF
Эффективные приоритетные эвристики
Многие эвристические функции
Инкрементальное планирование путей
Обход столкновений
Масштабируемость до сотен агентов
Модульная реализация на Python
Примеры интеграции с ROS
Плюсы и минусы ePH-MAPF
Минусы
Явная информация о стоимости или модели ценообразования не предоставлена.
Ограниченная информация о развертывании в реальном мире или проблемах масштабируемости вне смоделированных сред.
Плюсы
Улучшает координацию многократно агентов через избирательные улучшения коммуникации.
Эффективно решает конфликты и тупики, используя приоритетные решения на основе значений Q.
Комбинирует нейронные политики с экспертным руководством одиночного агента для надежной навигации.
Использует ансамблевый метод для выбора лучших решений из нескольких решателей, повышая производительность.
Доступен открытый исходный код, способствующий воспроизводимости и дальнейшим исследованиям.
Модуль Java Action Linearprogram предоставляет специализированное действие, позволяющее агентам моделировать и решать задачи линейной оптимизации. Пользователи могут конфигурировать коэффициенты цели, добавлять равенства и неравенства, выбирать методы решения и запускать решатель в цикле рассуждения агента. После выполнения действие возвращает оптимальные значения переменных и результат цели, которые агенты могут использовать для последующего планирования или выполнения. Этот компонент plug-and-play скрывает сложность решателя, сохраняя полный контроль над определением задач через Java-интерфейсы.