- Étape 1 : Configurez l'environnement Docker ou exécutez le serveur localement
- Étape 2 : Accédez au point d'accès API `/scrape` pour le scraping d'une URL unique
- Étape 3 : Utilisez `/scrape-batch` pour traiter plusieurs URLs à la fois
- Étape 4 : Utilisez `/crawl` pour explorer et scraper des sites web entiers
- Étape 5 : Récupérez et traitez les données extraites