Avalon-LLM est un cadre d'IA multi-agent basé sur Python qui permet aux utilisateurs d'orchestrer plusieurs agents pilotés par LLM dans un environnement coordonné. Chaque agent peut être configuré avec des outils spécifiques — y compris la recherche web, les opérations sur fichiers et les API personnalisés — pour réaliser des tâches spécialisées. Le cadre supporte des modules de mémoire pour stocker le contexte des conversations et les connaissances à long terme, un raisonnement en chaîne pour améliorer la prise de décision, et des pipelines d’évaluation intégrés pour benchmarker la performance des agents. Avalon-LLM offre un système de plugins modulaire, permettant aux développeurs d’ajouter ou de remplacer facilement des composants comme les fournisseurs de modèles, les kits d’outils et les magasins de mémoire. Avec des fichiers de configuration simples et des interfaces en ligne de commande, les utilisateurs peuvent déployer, surveiller et étendre des flux de travail d’IA autonomes adaptés pour la recherche, le développement et la production.
llm-ReAct implémente l'architecture ReAct (Reasoning and Acting) pour les grands modèles de langage, permettant une intégration transparente du raisonnement par chaînes de pensées avec l'exécution d'outils externes et le stockage mémoire. Les développeurs peuvent configurer une boîte à outils d'outils personnalisés — tels que la recherche web, les requêtes en base de données, les opérations sur fichiers et les calculatrices — et instruire l'agent à planifier des tâches multi-étapes en invoquant les outils selon le besoin pour récupérer ou traiter des informations. Le module mémoire intégré conserve l'état de la conversation et les actions passées, favorisant un comportement d'agent plus sensible au contexte. Avec un code Python modulaire et une prise en charge des API OpenAI, llm-ReAct simplifie l'expérimentation et le déploiement d'agents intelligents capables de résoudre adaptativement des problèmes, d'automatiser des flux de travail et de fournir des réponses riches en contexte.
Easy-Agent est un framework Python qui simplifie la création d'agents basés sur LLM, permettant l'intégration d'outils, la mémoire et les workflows personnalisés.
Easy-Agent accélère le développement d'agents IA en fournissant un cadre modulaire qui intègre les LLM avec des outils externes, le suivi de session en mémoire, et des flux d'action configurables. Les développeurs commencent par définir une série d'enveloppes d'outils exposant des API ou des exécutables, puis instancient un agent avec les stratégies de raisonnement souhaitées — telles que étape unique, chaîne de réflexion multi-étapes ou invites personnalisées. Le framework gère le contexte, invoque dynamiquement les outils en fonction de la sortie du modèle, et suit l'historique de la conversation via la mémoire de session. Il supporte l'exécution asynchrone pour les tâches parallèles et une gestion robuste des erreurs pour assurer des performances fiables de l'agent. En abstraisant l'orchestration complexe, Easy-Agent permet aux équipes de déployer des assistants intelligents pour des cas d'utilisation tels que la recherche automatisée, les bots de support client, les pipelines d'extraction de données et les assistants de planification avec une configuration minimale.