- Passo 1: Instale usando pip install ai-context-optimization
- Passo 2: Importe Optimizer de ai_context_optimization
- Passo 3: Inicialize com limitação de tokens desejada e configurações de relevância
- Passo 4: Adicione segmentos de contexto bruto ou histórico de conversas
- Passo 5: Chame optimizer.optimize() para gerar contexto condensado
- Passo 6: Forneça o contexto otimizado na sua chamada de API de LLM
- Passo 7: Ajuste os parâmetros com base na qualidade da resposta e uso de tokens