- Étape 1 : Cloner le dépôt GitHub et installer les dépendances Python (pip install -r requirements.txt).
- Étape 2 : Définir les cibles de scraping en modifiant le fichier de configuration avec des motifs URL ou des requêtes de recherche.
- Étape 3 : Personnaliser les règles d'analyse et les modèles d'invite LLM pour extraire et traiter des champs de données spécifiques.
- Étape 4 : Fournir les identifiants API pour le fournisseur LLM choisi dans les variables d'environnement.
- Étape 5 : Exécuter le script de l'agent (python agent.py) pour démarrer le scraping automatisé et l'analyse LLM.
- Étape 6 : Examiner les résumés générés, les sorties JSON structurées, ou les rapports CSV, et ajuster la configuration pour d'autres itérations.