- Schritt 1: Installieren und Konfigurieren des lokalen Ollama-Servers oder Herstellen einer Verbindung zu einem Remote-Server
- Schritt 2: Aktualisieren von `mcp-servers.json` mit den gewünschten MCP-Agenten
- Schritt 3: Festlegen der Umgebungsvariablen in `.env` für das bevorzugte LLM-Modell und die Server-URL
- Schritt 4: Das Repository klonen, Abhängigkeiten installieren und die App starten
- Schritt 5: Auf die App unter `http://localhost:3000` zugreifen und über die Schnittstelle interagieren