- Orquestração baseada em grafos de fluxos de trabalho de modelos de linguagem
- Suporte para múltiplos provedores de LLM (OpenAI, Hugging Face, personalizado)
- Composição modular de pipelines com nós reutilizáveis
- Controle de execução paralela e sequencial
- Cache integrado e manipulação de erros
- Visualização de grafos para depuração e monitoramento