- Schritt 1: Klonen Sie das GitHub-Repository und installieren Sie die Python-Abhängigkeiten (pip install -r requirements.txt).
- Schritt 2: Definieren Sie Scraping-Ziele durch Bearbeiten der Konfigurationsdatei mit URL-Mustern oder Suchanfragen.
- Schritt 3: Passen Sie Parsing-Regeln und LLM-Aufforderungsvorlagen an, um spezifische Datenfelder zu extrahieren und zu verarbeiten.
- Schritt 4: Stellen Sie API-Zugangsdaten für den gewählten LLM-Anbieter in Umgebungsvariablen bereit.
- Schritt 5: Führen Sie das Agent-Skript aus (python agent.py), um automatisiertes Scraping und LLM-Analyse zu starten.
- Schritt 6: Überprüfen Sie die generierten Zusammenfassungen, strukturierten JSON-Ausgaben oder CSV-Berichte und passen Sie die Konfigurationen für weitere Iterationen an.