- Passo 1: Configure o ambiente Docker ou execute o servidor localmente
- Passo 2: Acesse o endpoint da API `/scrape` para scraping de uma única URL
- Passo 3: Use `/scrape-batch` para processar várias URLs de uma vez
- Passo 4: Use `/crawl` para rastrear e extrair dados de sites inteiros
- Passo 5: Recupere e processe os dados extraídos