- Design de pipeline modular de prompts
- Integração com múltiplas APIs de LLM
- Métricas de avaliação embutidas
- Rastreamento de uso de tokens e custos
- Depuração e visualização de respostas
- Interfaces CLI e SDK em Python
- Benchmarking de fluxo de trabalho
- Suporte a métricas personalizadas