- Passo 1: Instale o Ollama e certifique-se que um LLM local compatível esteja configurado.
- Passo 2: Clone o repositório echoOLlama: git clone https://github.com/theboringhumane/echoOLlama.git
- Passo 3: Navegue até o diretório: cd echoOLlama
- Passo 4: Instale dependências (se necessário) ou torne o script executável.
- Passo 5: Execute o echoOLlama: ./echoOLlama --model llama2 --prompt "Seu prompt aqui"
- Passo 6: Observe as respostas e encadeie novos prompts conforme necessário.