- Шаг 1: Настройте среду Docker или запустите сервер локально
- Шаг 2: Получите доступ к конечной точке API `/scrape` для скрапинга единого URL
- Шаг 3: Используйте `/scrape-batch` для пакетной обработки нескольких URL за один раз
- Шаг 4: Используйте `/crawl`, чтобы краулить и скрапировать целые веб-сайты
- Шаг 5: Извлеките и обработайте стянутые данные