- Schritt 1: Richten Sie die Docker-Umgebung ein oder führen Sie den Server lokal aus
- Schritt 2: Greifen Sie auf den API-Endpunkt `/scrape` für das Scraping einer einzelnen URL zu
- Schritt 3: Verwenden Sie `/scrape-batch`, um mehrere URLs auf einmal zu verarbeiten
- Schritt 4: Verwenden Sie `/crawl`, um ganze Websites zu crawlen und zu scrapen
- Schritt 5: Abrufen und Verarbeiten der gescrapten Daten