- Paso 1: Instala Ollama y asegúrate de que un LLM local compatible esté configurado.
- Paso 2: Clona el repositorio echoOLlama: git clone https://github.com/theboringhumane/echoOLlama.git
- Paso 3: Navega al directorio: cd echoOLlama
- Paso 4: Instala dependencias (si es necesario) o haz que el script sea ejecutable.
- Paso 5: Ejecuta echoOLlama: ./echoOLlama --model llama2 --prompt "Tu prompt aquí"
- Paso 6: Observa las respuestas y encadena más prompts según sea necesario.