Гибкие 本地LLM решения

Используйте многофункциональные 本地LLM инструменты, которые адаптируются под ваши нужды.

本地LLM

  • Инструмент командной строки с открытым исходным кодом, который повторяет и обрабатывает пользовательские подсказки с использованием Ollama LLMs для локальных рабочих процессов ИИ-агентов.
    0
    0
    Что такое echoOLlama?
    echoOLlama использует экосистему Ollama для предоставления минимальной структуры агента: он читает пользовательский ввод из терминала, отправляет его сконфигурированному локальному LLM и транслирует ответы в реальном времени. Пользователи могут скриптовать последовательности взаимодействий, связывать подсказки и экспериментировать с инженерией подсказок, не модифицируя исходный код модели. Это делает echoOLlama идеальным средством для тестирования диалоговых сценариев, создания простых командных утилит и обработки итеративных задач агентов, при этом обеспечивая безопасность данных.
  • Плагин GAMA Genstar интегрирует модели генеративного ИИ в симуляции GAMA для автоматической генерации поведения агентов и сценариев.
    0
    0
    Что такое GAMA Genstar Plugin?
    Плагин GAMA Genstar добавляет возможность работы с генеративным ИИ в платформу GAMA, предоставляя коннекторы к OpenAI, локальным LLM и эндпоинтам пользовательских моделей. Пользователи определяют подсказки и пайплайны в GAML для генерации решений агентов, описаний сред и параметров сценариев на лету. Плагин поддерживает синхронные и асинхронные API-запросы, кэширование ответов и настройку параметров. Он упрощает интеграцию моделей на естественном языке в крупномасштабные симуляции, уменьшая объем ручного скриптинга и стимулируя создание более богатого и адаптивного поведения агентов.
  • Ollama Bot — это чат-бот для Discord, использующий локальные модели LLM от Ollama для генерации ответов в режиме реального времени с соблюдением конфиденциальности.
    0
    0
    Что такое Ollama Bot?
    Ollama Bot — это агент ИИ на базе Node.js, предназначенный для работы на серверах Discord, использующий CLI Ollama и локальные модели LLM для формирования conversational responses. Он поддерживает постоянный чат-контекст, позволяя пользователям сохранять тему на многие сообщения. Администраторы могут задавать пользовательские подсказки, устанавливать параметры модели и ограничивать команды по ролям. Бот поддерживает несколько моделей LLM, автоматически управляет очередями сообщений для высокой пропускной способности и ведет журналы взаимодействий для аудита. Установка включает клонирование репозитория, установку зависимостей через npm и конфигурацию переменных окружения, таких как токен Discord и настройки Ollama. После развертывания бот слушает slash-команды, перенаправляет запросы к модели Ollama и публикует полученные отклики прямо в каналах Discord.
  • Pieces - это инструмент продуктивности с поддержкой ИИ, который интегрируется с вашими любимыми инструментами для улучшения рабочих процессов программирования.
    0
    0
    Что такое Pieces for Developers?
    Pieces - это инструмент продуктивности, основанный на ИИ, разработанный для разработчиков. Он помогает управлять хаосом рабочих процессов разработки, обеспечивая интеллектуальное управление фрагментами кода, контекстные взаимодействия с помощником и проактивное представление полезных материалов. Интегрируясь плавно с популярными инструментами и используя локальные и облачные LLM, Pieces повышает продуктивность, исключает переключение контекста и обеспечивает безопасное хранение и обогащение критически важных ресурсов. Его цель - переосмыслить основы продуктивности и усилить синергию команды, оставаясь в потоке работы с помощью LLM на устройстве и двигателя паттернов рабочего потока.
Рекомендуемые