- Configuration visuelle des pipelines de recherche vectorielle
- Intégration avec plusieurs bases vectorielles (Pinecone, FAISS, etc.)
- Support pour plusieurs backends LLM (OpenAI, Hugging Face)
- Ingestion de documents et gestion des embeddings
- Création et personnalisation de modèles de prompts
- Logs en temps réel des appels API (utilisation des tokens, latence)
- Exporter la configuration sous forme d'extraits de code
- Visualisation modulaire des composants de chaîne