- Inferencia local de LLM usando backend WebGPU
- Compatibilidad amplia de dispositivos con soporte WebAssembly
- Streaming en tiempo real de respuestas de IA
- Cambio de modelo (LLaMA, Vicuna, Alpaca, etc.)
- Interfaz de usuario personalizable basada en React
- Gestión del historial y prompts del sistema
- Arquitectura de plugins extensible para comportamientos personalizados
- Operación offline sin dependencias de servidor