Esta estrutura permite que usuários projetem, configurem, e implementem múltiplos agentes de IA que comunicam via mensagens JSON através de um orquestrador central. Cada agente pode ter funções, prompts e módulos de memória distintos, e qualquer provedor de LLM pode ser integrado implementando uma interface de provedor. O sistema suporta histórico de conversa persistente, roteamento dinâmico e extensões modulares. Ideal para simular debates, automatizar fluxos de suporte ao cliente ou coordenar geração de documentos em múltiplas etapas. Funciona em Python com suporte para Docker para implantações em containers.