Este marco permite a los usuarios diseñar, configurar y desplegar múltiples agentes de IA que se comunican mediante mensajes JSON a través de un orquestador central. Cada agente puede tener diferentes roles, instrucciones y módulos de memoria, y puedes integrar cualquier proveedor de LLM implementando una interfaz de proveedor. El sistema admite historial de conversaciones persistente, enrutamiento dinámico y extensiones modulares. Ideal para simular debates, automatizar flujos de soporte al cliente o coordinar generación de documentos de múltiples pasos. Funciona en Python con soporte para Docker para implementaciones en contenedores.