- Passo1: Clone o repositório do GitHub e instale as dependências Python (pip install -r requirements.txt).
- Passo2: Defina os alvos de scraping editando o arquivo de configuração com padrões de URL ou consultas de busca.
- Passo3: Personalize as regras de análise e os modelos de prompt do LLM para extrair e processar campos de dados específicos.
- Passo4: Forneça credenciais de API para o provedor de LLM escolhido nas variáveis de ambiente.
- Passo5: Execute o script do agente (python agent.py) para iniciar o scraping automatizado e análise do LLM.
- Passo6: Reveja os resumos gerados, saídas JSON estruturadas ou relatórios CSV e ajuste as configurações para futuras iterações.