Framework Python open-source permettant à des agents d'IA autonomes de planifier, exécuter et apprendre des tâches via l'intégration LLM et mémoire persistante.
AI-Agents offre une plateforme flexible et modulaire pour créer des agents autonomes pilotés par l'IA. Les développeurs peuvent définir des objectifs d'agents, chaîner des tâches et incorporer des modules de mémoire pour stocker et récupérer des informations contextuelles entre les sessions. Le framework supporte l'intégration avec les principaux LLM via des clés API, permettant aux agents de générer, évaluer et réviser des sorties. La prise en charge d'outils et de plugins personnalisables permet aux agents d'interagir avec des services externes tels que le web scraping, les requêtes de bases de données et les outils de rapport. À travers des abstractions claires pour la planification, l'exécution et les boucles de feedback, AI-Agents accélère la phase de prototypage et le déploiement de flux de travail automatisés intelligents.
Fonctionnalités principales de AI-Agents
Intégration LLM avec OpenAI et autres fournisseurs
Moteur de planification et d'exécution autonome des tâches
AtomicAgent est une bibliothèque Node.js pour créer des agents IA modulaires qui orchestrent les appels LLM et les outils externes pour des flux de travail automatisés.
AtomicAgent fournit un cadre structuré pour définir, composer et exécuter des tâches d’agents IA. Les modules principaux incluent un registre d’outils pour enregistrer et invoquer des services externes, un gestionnaire de mémoire pour persister le contexte conversationnel ou de tâche, et un moteur d’orchestration qui guide les interactions LLM étape par étape. Les développeurs peuvent définir des outils réutilisables, configurer la logique de décision et exploiter l’exécution asynchrone pour les tâches longues. La conception modulaire d’AtomicAgent favorise la maintenabilité, la testabilité et des itérations rapides de flux de travail complexes alimentés par IA, des chatbots aux pipelines de traitement des données.
MCP-Ollama-Client fournit une interface unifiée pour communiquer avec les modèles linguistiques d’Ollama exécutés localement. Il supporte des dialogues duplex complets avec un suivi automatique de l’historique, un streaming en direct des tokens de complétion et des modèles de prompt dynamiques. Les développeurs peuvent choisir parmi les modèles installés, personnaliser des hyperparamètres tels que la température et le nombre maximum de tokens, et surveiller les métriques d’utilisation directement dans le terminal. Le client expose une enveloppe API simple de type REST pour l’intégration dans des scripts d’automatisation ou des applications locales. Avec un rapport d’erreur intégré et une gestion de configuration, il facilite le développement et le test des workflows alimentés par LLM sans dépendre d’API externes.