- Шаг 1: Настройте свои ключи API и переменные окружения
- Шаг 2: Клонируйте репозиторий just-prompt и установите зависимости
- Шаг 3: Выберите желаемый инструмент MCP (например, prompt, prompt_from_file, ceo_and_board)
- Шаг 4: Настройте параметры инструмента, такие как текст подсказки, пути к файлам или модели по умолчанию
- Шаг 5: Выполните команду инструмента для одновременного взаимодействия с несколькими LLM
- Шаг 6: Соберите и проанализируйте ответы
- Шаг 7: Используйте дополнительные функции, такие как сохранение результатов или перечисление моделей, по мере необходимости