- Paso 1: Instalar mediante pip install ai-context-optimization
- Paso 2: Importar Optimizer desde ai_context_optimization
- Paso 3: Inicializar con el presupuesto deseado de tokens y configuraciones de relevancia
- Paso 4: Añadir segmentos de contexto en bruto o historial de conversaciones
- Paso 5: Llamar a optimizer.optimize() para generar un contexto condensado
- Paso 6: Alimentar el contexto optimizado en tu llamada API de LLM
- Paso 7: Ajustar parámetros en función de la calidad de respuesta y uso de tokens