- Schritt 1: Paket via npm oder yarn installieren (npm install tongui-agent).
- Schritt 2: Tongui Agent in Ihrem Projekt importieren (import { Agent } from 'tongui-agent').
- Schritt 3: Ihren LLM-Backend konfigurieren (z. B. OpenAI API-Schlüssel).
- Schritt 4: Speicher-Module und benutzerdefinierte Tools oder Aktionen definieren.
- Schritt 5: Den Agent mit Konfiguration und Plugins instanziieren.
- Schritt 6: agent.run(input) aufrufen, um Aufgaben oder Gespräche auszuführen.
- Schritt 7: Logs und Zustand über integrierte Observability-Hooks überwachen.
- Schritt 8: In Node.js, Web- oder Serverless-Umgebungen bereitstellen.