- Schritt 1: Installieren Sie Ollama und stellen Sie sicher, dass ein kompatibles lokales LLM konfiguriert ist.
- Schritt 2: Klonen Sie das echoOLlama-Repository: git clone https://github.com/theboringhumane/echoOLlama.git
- Schritt 3: Navigieren Sie in das Verzeichnis: cd echoOLlama
- Schritt 4: Installieren Sie Abhängigkeiten (falls erforderlich) oder machen Sie das Skript ausführbar.
- Schritt 5: Führen Sie echoOLlama aus: ./echoOLlama --model llama2 --prompt "Ihr Prompt hier"
- Schritt 6: Beobachten Sie die Antworten und verketten Sie bei Bedarf weitere Prompts.