RAGENT — это фреймворк на Python, позволяющий создавать автономных AI-агентов с использованием генерации с расширенным поиском, автоматизации браузера, работы с файлами и инструментами веб-поиска.
RAGENT предназначен для создания автономных AI-агентов, которые могут взаимодействовать с различными инструментами и источниками данных. В основе лежит генерация, дополненная поиском для получения релевантного контекста из файлов или внешних источников, и ответ строится с помощью моделей OpenAI. Разработчики могут добавлять инструменты для веб-поиска, автоматизации браузера с Selenium, работы с файлами, безопасного выполнения кода и OCR. Фреймворк управляет памятью диалога, оркестрирует инструменты и поддерживает настраиваемые шаблоны подсказок. С RAGENT команды быстро прототипируют интеллектуальных агентов для ответов на вопросы, автоматизации исследований, суммирования контента и полного автоматизированного выполнения рабочих процессов — все в среде Python.
PerfAgents — это платформа синтетического мониторинга и тестирования на основе ИИ, разработанная для упрощения настройки и управления мониторингом ваших критических приложений. Она поддерживает несколько открытых фреймворков, таких как Selenium, Puppeteer, Cypress и Playwright. Используя ваши существующие скрипты или без труда создавая новые, PerfAgents обеспечивает непрерывное тестирование, сокращая время простоя и обеспечивая оптимальную производительность приложений. Она плавно интегрируется с такими инструментами, как Slack, Microsoft Teams, Jira и PagerDuty, для получения уведомлений и предупреждений в реальном времени.
Dino Reinforcement Learning — это полный набор инструментов для обучения AI-агента играть в игру динозавров Chrome с помощью обучения с подкреплением. Интеграция с безголовым Chrome через Selenium обеспечивает захват игровых кадров в реальном времени и их обработку в представления состояний, оптимизированные для входных данных глубоких Q-сетей. В рамках реализованы модули памяти воспроизведения, эвристического исследования epsilon-greedy, моделей сверточных нейронных сетей и циклов обучения с настраиваемыми гиперпараметрами. Пользователи могут отслеживать прогресс обучения через консольные логи и сохранять контрольные точки для последующей оценки. После обучения агент может быть запущен для автономной игры или протестирован против различных архитектур моделей. Модульный дизайн облегчает замену алгоритмов RL, что делает платформу гибкой для экспериментов.