- Schritt1: Installation via pip install ai-context-optimization
- Schritt2: Importieren des Optimizers aus ai_context_optimization
- Schritt3: Initialisierung mit gewünschtem Token-Budget und Relevanz-Einstellungen
- Schritt4: Hinzufügen roher Kontexte oder Gesprächsverlauf-Segmenten
- Schritt5: Aufruf von optimizer.optimize() zur Erzeugung komprimierter Kontexte
- Schritt6: Eingabe des optimierten Kontexts in den LLM-API-Aufruf
- Schritt7: Parameterjustierung basierend auf Antwortqualität und Token-Verbrauch