SeeAct est conçu pour donner aux agents vision-langage une pipeline en deux étapes : un module de planification alimenté par de grands modèles de langage génère des sous-objectifs basés sur des scènes observées, et un module d'exécution traduit ces sous-objectifs en actions spécifiques à l'environnement. Un backbone de perception extrait des caractéristiques d'objets et de scènes à partir d'images ou de simulations. L'architecture modulaire permet de remplacer facilement les planificateurs ou réseaux de perception et supporte l'évaluation sur AI2-THOR, Habitat et d'autres environnements personnalisés. SeeAct accélère la recherche sur l'IA incarnée interactive en fournissant une décomposition, une mise en contexte et une exécution de tâches de bout en bout.
Fonctionnalités principales de SeeAct
Planification de sous-objectifs basée sur LLM
Perception visuelle et extraction de caractéristiques
Pipeline d'exécution modulaire
Tâches de référence dans des environnements simulés
Composants configurables
Avantages et inconvénients de SeeAct
Inconvénients
La mise en correspondance des actions reste un défi important avec un écart de performance notable par rapport à la mise en correspondance oracle.
Les méthodes actuelles de mise en correspondance (attributs d'éléments, choix textuels, annotation d'image) comportent des cas d'erreur entraînant des échecs.
Le taux de réussite sur les sites web en direct est limité à environ la moitié des tâches, indiquant un potentiel d'amélioration en robustesse et généralisation.
Avantages
Exploite des modèles multimodaux avancés tels que GPT-4V pour des interactions web sophistiquées.
Combine la génération d'actions et la mise en correspondance pour exécuter efficacement des tâches sur des sites web en direct.
Présente de solides capacités en planification spéculative, raisonnement de contenu et autocorrection.
Disponible en tant que package Python ouvert facilitant l'utilisation et le développement.
Démontre des performances compétitives dans l'accomplissement de tâches en ligne avec un taux de réussite de 50%.
Accepté lors d'une grande conférence IA (ICML 2024), reflétant des contributions de recherche validées.
ggfai fournit une interface unifiée pour définir des objectifs, gérer le raisonnement à plusieurs étapes et maintenir le contexte de conversation avec des modules de mémoire. Il prend en charge des intégrations d'outils personnalisables pour appeler des services ou APIs externes, des flux d'exécution asynchrones et des abstractions sur les modèles GPT d'OpenAI. L'architecture de plugins du cadre vous permet d'échanger des backends de mémoire, des magasins de connaissances et des modèles d'action, simplifiant l'orchestration d'agents dans des tâches telles que le support client, la récupération de données ou les assistants personnels.