Open-source рамочная платформа на Python, позволяющая автономным агентам ИИ планировать, выполнять и учиться новым задачам через интеграцию LLM и постоянную память.
AI-Agents обеспечивает гибкую и модульную платформу для создания автономных агентов на базе ИИ. Разработчики могут задавать цели агента, связывать задачи и добавлять модули памяти для хранения и восстановления контекстной информации. Поддерживается интеграция с ведущими LLM через API-ключи, что позволяет агентам генерировать, оценивать и дорабатывать результаты. Возможность настраиваемых инструментов и плагинов позволяет агентам взаимодействовать с внешними сервисами, такими как парсинг веб-страниц, базы данных и системы отчетности. Благодаря ясным абстракциям для планирования, исполнения и обратной связи, AI-Agents ускоряет разработку прототипов и развертывание интеллектуальных автоматизированных рабочих потоков.
AtomicAgent — это библиотека Node.js для построения модульных AI-агентов, которые управляют вызовами LLM и внешними инструментами для автоматизированных рабочих процессов.
AtomicAgent предоставляет структурированный каркас для определения, составления и выполнения задач AI-агента. Основные модули включают реестр инструментов для регистрации и вызова внешних сервисов, менеджер памяти для хранения контекста диалога или задачи и механизм оркестровки, управляющий взаимодействиями с LLM шаг за шагом. Разработчики могут создавать переиспользуемые инструменты, настраивать логику принятия решений и использовать асинхронное выполнение длительных задач. Модульный дизайн AtomicAgent способствует удобству обслуживания, тестированию и быстрому развитию сложных рабочих процессов на базе ИИ, от чат-ботов до пайплайнов обработки данных.
MCP-Ollama-Client предоставляет унифицированный интерфейс для связи с локально запущенными языковыми моделями Ollama. Он поддерживает полудуплексные многоходовые диалоги с автоматическим отслеживанием истории, потоковое отображение токенов завершения и динамические шаблоны подсказок. Разработчики могут выбирать среди установленных моделей, настраивать гиперпараметры такие как температуру и максимальное количество токенов, а также контролировать показатели использования прямо в терминале. Клиент предоставляет простую REST-подобную API-обертку для интеграции в автоматизированные скрипты или локальные приложения. Встроенная обработка ошибок и конфигурационное управление позволяют упростить разработку и тестирование рабочих процессов на базе LLM без зависимости от внешних API.