- Lokale LLM-Inferenz mit WebGPU-Backend
- WebAssembly-Unterstützung für breite Gerätekompatibilität
- Echtzeit-Streaming von KI-Antworten
- Modellwechsel (LLaMA, Vicuna, Alpaca usw.)
- Anpassbare React-basierte Benutzeroberfläche
- Konversationsverlauf und Systemprompt-Management
- Erweiterbare Plugin-Architektur für benutzerdefinierte Verhaltensweisen
- Offline-Betrieb ohne Serverabhängigkeiten