- Schritt 1: Installieren Sie LlamaIndex und das Llama Deploy-Modul via pip.
- Schritt 2: Erstellen und serialisieren Sie Ihren Dokumentindex mit LlamaIndex.
- Schritt 3: Erstellen Sie eine Bereitstellungskonfiguration, indem Sie den Anbieter (AWS Lambda, Vercel oder Docker) angeben.
- Schritt 4: Richten Sie Umgebungsvariablen für Authentifizierung und Region ein.
- Schritt 5: Führen Sie `llama-deploy deploy` aus, um Ihren serverlosen Endpunkt bereitzustellen.
- Schritt 6: Testen Sie die generierte Chat-API-URL mit Beispiel-Prompts.
- Schritt 7: Überwachen Sie Logs und Skalierungseinstellungen in Ihrer Cloud-Konsole.