- Intégration LLM avec OpenAI, Cohere et modèles locaux
- Récupération sémantique de documents et bases de données
- Architecture de plugins pour outils personnalisés et appels de fonctions
- Modèles de prompt basés sur le rôle et stockage de mémoire
- Auto-hébergeable via Docker ou installation locale
- Points d’API RESTful pour accès programmatique