- Paso 1: Descarga la última versión desde GitHub.
- Paso 2: Descomprime y navega al directorio zin-mcp-client.
- Paso 3: Instala dependencias usando uv o pip.
- Paso 4: Configura Ollama instalando y ejecutando tu modelo LLM preferido.
- Paso 5: Configura la configuración del servidor MCP en el archivo mcp_config.json.
- Paso 6: Ejecuta el cliente con uv o pip, especificando el servidor, el modelo y las opciones de configuración.
- Paso 7: Usa la CLI para conectarte a los servidores MCP, invocar funciones y analizar respuestas.