SeeAct foi projetado para capacitar agentes de visão-linguagem com um pipeline de duas etapas: um módulo de planejamento alimentado por grandes modelos de linguagem que gera subobjetivos com base em cenas observadas, e um módulo de execução que traduz subobjetivos em ações específicas do ambiente. Uma espinha dorsal de percepção extrai características de objetos e cenas de imagens ou simulações. A arquitetura modular permite substituição fácil de planejadores ou redes de percepção, e suporta avaliação em AI2-THOR, Habitat e ambientes personalizados. SeeAct acelera a pesquisa em IA interativa incorporada, fornecendo decomposição de tarefas de ponta a ponta, fundamentação e execução.
Recursos Principais do SeeAct
Planejamento de subobjetivos baseado em LLM
Percepção visual e extração de características
Pipeline de execução modular
Tarefas de benchmark em ambientes simulados
Componentes configuráveis
Prós e Contras do SeeAct
Contras
O grounding de ações continua a ser um desafio significativo com uma lacuna notável de desempenho em comparação com o grounding oracular.
Os métodos atuais de grounding (atributos de elementos, escolhas textuais, anotação de imagens) têm casos de erro que levam a falhas.
A taxa de sucesso em sites ao vivo é limitada a cerca da metade das tarefas, indicando espaço para melhorias em robustez e generalização.
Prós
Aproveita avançados modelos multimodais como GPT-4V para interações web sofisticadas.
Combina geração de ações e grounding para realizar tarefas efetivamente em sites ao vivo.
Exibe fortes capacidades em planejamento especulativo, raciocínio de conteúdo e autocorreção.
Disponível como pacote Python aberto que facilita o uso e desenvolvimento contínuo.
Demonstrou desempenho competitivo na conclusão online de tarefas com uma taxa de sucesso de 50%.
Aceito em uma grande conferência de IA (ICML 2024), refletindo contribuições de pesquisa validadas.