- Inference LLM locale avec backend WebGPU
- Support WebAssembly pour une compatibilité étendue des appareils
- Diffusion en temps réel des réponses IA
- Changement de modèle (LLaMA, Vicuna, Alpaca, etc.)
- Interface utilisateur personnalisable basée sur React
- Gestion de l'historique des conversations et des invites système
- Architecture de plugin extensible pour des comportements personnalisés
- Fonctionnement hors ligne sans dépendances serveur