- LLM-Integration mit OpenAI, Cohere und lokalen Modellen
- Semantische Dokumenten- und Datenbankabfrage
- Plugin-Architektur für benutzerdefinierte Werkzeuge und Funktionsaufrufe
- rollenspezifische Prompt-Vorlagen und Speicher
- Selbsthostbar via Docker oder lokale Installation
- RESTful API-Endpunkte für programmatischen Zugriff