- Schritt 1: Richten Sie Ihre API-Schlüssel und Umgebungsvariablen ein
- Schritt 2: Klonen Sie das just-prompt-Repository und installieren Sie die Abhängigkeiten
- Schritt 3: Wählen Sie das gewünschte MCP-Tool (z.B. prompt, prompt_from_file, ceo_and_board)
- Schritt 4: Konfigurieren Sie die Parameter des Tools wie Prompt-Text, Dateipfade oder Standardmodelle
- Schritt 5: Führen Sie den Tool-Befehl aus, um gleichzeitig mit mehreren LLMs zu interagieren
- Schritt 6: Antworten sammeln und analysieren
- Schritt 7: Nutzen Sie bei Bedarf zusätzliche Funktionen wie das Speichern von Ausgaben oder das Auflisten von Modellen