- Étape 1 : Installez LlamaIndex et le module Llama Deploy via pip.
- Étape 2 : Construisez et sérialisez votre index de documents avec LlamaIndex.
- Étape 3 : Créez une configuration de déploiement en précisant le fournisseur (AWS Lambda, Vercel ou Docker).
- Étape 4 : Configurez les variables d'environnement pour l'authentification et la région.
- Étape 5 : Exécutez `llama-deploy deploy` pour provisionner votre point de terminaison sans serveur.
- Étape 6 : Testez l'URL API de chat générée avec des invites d'exemple.
- Étape 7 : Surveillez les journaux et les paramètres de mise à l'échelle dans la console cloud de votre choix.