- Passo 1: Instalar e configurar o servidor Ollama local ou conectar-se a um servidor remoto
- Passo 2: Atualizar `mcp-servers.json` com os agentes MCP desejados
- Passo 3: Definir variáveis de ambiente em `.env` para o modelo LLM preferido e URL do servidor
- Passo 4: Clonar o repositório, instalar dependências e iniciar o aplicativo
- Passo 5: Acessar o aplicativo em `http://localhost:3000` e interagir através da interface