- Локальная inference LLM с использованием WebGPU
- Поддержка WebAssembly для совместимости с широким спектром устройств
- Реал-тайм потоковая передача ответов ИИ
- Переключение моделей (LLaMA, Vicuna, Alpaca и др.)
- Настраиваемый UI на React
- Управление историей диалогов и системными подсказками
- Расширяемая архитектура плагинов для поведения по желанию
- Работа в офлайн-режиме без необходимости серверов