- Paso 1: Clona el repositorio de GitHub e instala dependencias de Python (pip install -r requirements.txt).
- Paso 2: Define objetivos de scraping editando el archivo de configuración con patrones URL o consultas de búsqueda.
- Paso 3: Personaliza reglas de análisis y plantillas de prompts para extraer y procesar campos de datos específicos.
- Paso 4: Proporciona credenciales API del proveedor LLM en variables de entorno.
- Paso 5: Ejecuta el script del agente (python agent.py) para habilitar scraping automático y análisis LLM.
- Paso 6: Revisa resúmenes generados, salidas JSON estructuradas o informes CSV y ajusta configuraciones para futuras iteraciones.