- Paso 1: Configurar el entorno Docker o ejecutar el servidor localmente
- Paso 2: Acceder al punto de acceso API `/scrape` para la extracción de una URL única
- Paso 3: Utilizar `/scrape-batch` para procesar múltiples URLs a la vez
- Paso 4: Utilizar `/crawl` para rastrear y extraer sitios web completos
- Paso 5: Recuperar y procesar los datos extraídos