- Шаг 1: установите Ollama и убедитесь, что настроена совместимая локальная модель LLM.
- Шаг 2: склонируйте репозиторий echoOLlama: git clone https://github.com/theboringhumane/echoOLlama.git
- Шаг 3: перейдите в директорию: cd echoOLlama
- Шаг 4: установите зависимости (если необходимо) или сделайте скрипт исполняемым.
- Шаг 5: запустите echoOLlama: ./echoOLlama --model llama2 --prompt "Ваш подсказка"
- Шаг 6: наблюдайте за ответами и при необходимости связывайте дополнительные подсказки.