- Étape 1 : Installer Ollama et s'assurer qu'un LLM local compatible est configuré.
- Étape 2 : Cloner le dépôt echoOLlama : git clone https://github.com/theboringhumane/echoOLlama.git
- Étape 3 : Naviguer dans le répertoire : cd echoOLlama
- Étape 4 : Installer les dépendances (si nécessaire) ou rendre le script exécutable.
- Étape 5 : Exécuter echoOLlama : ./echoOLlama --model llama2 --prompt "Votre invite ici"
- Étape 6 : Observer les réponses et enchaîner d'autres prompts si nécessaire.