- Интеграция LLM с OpenAI, Cohere и локальными моделями
- Семантический поиск документов и баз данных
- Архитектура плагинов для пользовательских инструментов и вызовов функций
- Шаблоны подсказок на основе ролей и хранилище памяти
- Само-хостинг через Docker или локальную установку
- REST API для программного доступа