SeeAct предназначен для оснащения агентов видения-языка двухступенчатой системой: модуль планирования на базе больших языковых моделей создает подцели на основе наблюдаемых сцен, а модуль выполнения переводит эти подцели в действия, специфичные для окружения. В базовом восприятии извлекаются признаки объектов и сцен из изображений или симуляций. Модульная архитектура позволяет легко заменять планировщики или сети восприятия и поддерживает оценку в AI2-THOR, Habitat и пользовательских средах. SeeAct ускоряет исследование интерактивного embodied AI, предоставляя разложение задач, привязку и выполнение от начала до конца.
Основные функции SeeAct
Планирование подцелей с помощью LLM
Визуальное восприятие и извлечение признаков
Модульная пайплайн реализации
Бенчмарки в моделируемых средах
Настраиваемые компоненты
Плюсы и минусы SeeAct
Минусы
Закрепление действий остается значительной проблемой с заметным разрывом в производительности по сравнению с оракульным закреплением.
Текущие методы закрепления (атрибуты элементов, текстовые варианты, аннотации изображений) имеют ошибки, приводящие к сбоям.
Уровень успеха на живых веб-сайтах ограничен примерно половиной задач, что указывает на необходимость улучшения устойчивости и обобщения.
Плюсы
Использует передовые мультимодальные крупные модели, такие как GPT-4V, для сложного взаимодействия с вебом.
Комбинирует генерацию действий и закрепление для эффективного выполнения задач на живых веб-сайтах.
Обладает сильными возможностями в области предположительного планирования, рационального анализа контента и самокоррекции.
Доступен в виде открытого пакета Python, упрощающего использование и дальнейшую разработку.
Показал конкурентную производительность в онлайн-завершении задач с уровнем успеха 50%.
Принят на крупной конференции по ИИ (ICML 2024), что отражает проверенные исследовательские достижения.