Ce cadre permet aux utilisateurs de concevoir, configurer et déployer plusieurs agents IA qui communiquent via des messages JSON à travers un orchestrateur central. Chaque agent peut avoir des rôles, des invites et des modules de mémoire distincts, et il est possible d'intégrer n'importe quel fournisseur LLM en implémentant une interface de fournisseur. Le système supporte l'historique de conversation persistant, le routage dynamique et les extensions modulaires. Idéal pour simuler des débats, automatiser des flux de support client ou coordonner la génération de documents en plusieurs étapes. Il fonctionne sous Python avec un support Docker pour les déploiements conteneurisés.