SeeAct foi projetado para capacitar agentes de visão-linguagem com um pipeline de duas etapas: um módulo de planejamento alimentado por grandes modelos de linguagem que gera subobjetivos com base em cenas observadas, e um módulo de execução que traduz subobjetivos em ações específicas do ambiente. Uma espinha dorsal de percepção extrai características de objetos e cenas de imagens ou simulações. A arquitetura modular permite substituição fácil de planejadores ou redes de percepção, e suporta avaliação em AI2-THOR, Habitat e ambientes personalizados. SeeAct acelera a pesquisa em IA interativa incorporada, fornecendo decomposição de tarefas de ponta a ponta, fundamentação e execução.