- Schritt 1: Klonen Sie das Repository von GitHub
- Schritt 2: Richten Sie die Umgebung nach den Anweisungen im README ein
- Schritt 3: Führen Sie lokale oder cloudbasierte LLM-Inferenzmodelle aus
- Schritt 4: Starten Sie den MCP-Client und verbinden Sie sich mit dem MCP-Server
- Schritt 5: Verwenden Sie die Chat-UI, um mit dem LLM zu interagieren und das MCP-Verhalten zu bewerten