- Passo 1: Baixe a versão mais recente do GitHub.
- Passo 2: Descompacte e navegue até o diretório zin-mcp-client.
- Passo 3: Instale as dependências usando uv ou pip.
- Passo 4: Configure o Ollama instalando e executando seu modelo LLM preferido.
- Passo 5: Configure as definições do servidor MCP no arquivo mcp_config.json.
- Passo 6: Execute o cliente com uv ou pip, especificando opções de servidor, modelo e configuração.
- Passo 7: Use a CLI para se conectar a servidores MCP, invocar funções e analisar respostas.