- Passo 1: Instale o MCP-Ollama-Client via pip ou clone o repositório.
- Passo 2: Certifique-se de que o Ollama esteja instalado e em execução no seu sistema.
- Passo 3: Inicie o cliente com mcp-ollama-client chat --model .
- Passo 4: Insira prompts para iniciar uma conversa de múltiplas rodadas.
- Passo 5: Use --prompt-template para aplicar modelos customizados.
- Passo 6: Integre a API no estilo REST nos seus scripts para automação.