- Integração de LLMs com OpenAI, Cohere e modelos locais
- Busca semântica em documentos e bancos de dados
- Arquitetura de plugins para ferramentas personalizadas e chamadas de funções
- Templates de prompt baseados em funções e armazenamento de memória
- Auto-hospedagem via Docker ou instalação local
- Pontos finais API RESTful para acesso programático