Outils configuration YAML simples et intuitifs

Explorez des solutions configuration YAML conviviales, conçues pour simplifier vos projets et améliorer vos performances.

configuration YAML

  • Agent Forge est un framework CLI pour la création, l'orchestration et le déploiement d'agents IA intégrés avec LLMs et outils externes.
    0
    0
    Qu'est-ce que Agent Forge ?
    Agent Forge simplifie le cycle de vie complet du développement d'agents IA en offrant des commandes CLI pour générer du code de squelette, des modèles de conversation et des paramètres de configuration. Les développeurs peuvent définir des rôles d'agents, attacher des fournisseurs LLM, et intégrer des outils externes tels que des bases de données vectorielles, des API REST et des plugins personnalisés à l'aide de descripteurs YAML ou JSON. Le framework permet une exécution locale, des tests interactifs, et l'emballage des agents en images Docker ou fonctions serverless pour un déploiement facile. La journalisation intégrée, les profils d'environnement et les hooks VCS simplifient le débogage, la collaboration et les pipelines CI/CD. Cette architecture flexible supporte la création de chatbots, d'assistants de recherche autonomes, de bots de support client, et de flux de travail automatisés de traitement de données avec un minimum de configuration.
  • Agent Nexus est un cadre open-source pour la création, l'orchestration et le test d'agents IA via des pipelines personnalisables.
    0
    0
    Qu'est-ce que Agent Nexus ?
    Agent Nexus offre une architecture modulaire pour la conception, la configuration et l'exécution d'agents IA interconnectés qui collaborent pour résoudre des tâches complexes. Les développeurs peuvent enregistrer dynamiquement des agents, personnaliser leur comportement via des modules Python et définir des pipelines de communication via des configurations YAML simples. Le routeur de messages intégré garantit un flux de données fiable entre les agents, tandis que les outils de journalisation et de surveillance intégrés aident à suivre les performances et à déboguer les workflows. Avec le support de bibliothèques IA populaires comme OpenAI et Hugging Face, Agent Nexus simplifie l'intégration de modèles divers. Que ce soit pour prototyper des expériences de recherche, construire des assistants automatisés pour le service client ou simuler des environnements multi-agents, Agent Nexus rationalise le développement et le test de systèmes IA collaboratifs, de la recherche académique aux déploiements commerciaux.
  • AgentIn est un framework open-source Python pour créer des agents IA avec mémoire personnalisable, intégration d'outils et génération automatique de prompts.
    0
    0
    Qu'est-ce que AgentIn ?
    AgentIn est un framework IA basé sur Python conçu pour accélérer le développement d'agents conversationnels et orientés tâche. Il offre des modules de mémoire intégrés pour persister le contexte, une intégration dynamique d'outils pour appeler des API externes ou des fonctions locales, et un système flexible de templates de prompts pour des interactions personnalisées. L'orchestration multi-agents permet des workflows en parallèle, tandis que la journalisation et le cache améliorent la fiabilité et la traçabilité. Facilement configurable via YAML ou code Python, AgentIn supporte les principaux fournisseurs LLM et peut être étendu avec des plugins personnalisés pour des capacités spécifiques au domaine.
  • Agent-Baba permet aux développeurs de créer des agents IA autonomes avec des plugins personnalisables, une mémoire conversationnelle et des workflows automatisés.
    0
    0
    Qu'est-ce que Agent-Baba ?
    Agent-Baba offre une boîte à outils complète pour créer et gérer des agents IA autonomes adaptés à des tâches spécifiques. Il propose une architecture de plugins pour étendre les capacités, un système de mémoire pour conserver le contexte conversationnel, et une automatisation de flux de travail pour l'exécution séquentielle des tâches. Les développeurs peuvent intégrer des outils comme des scrapeurs web, des bases de données et des API personnalisées dans les agents. Le framework simplifie la configuration via des schémas déclaratifs YAML ou JSON, supporte la collaboration multi-agents, et fournit des tableaux de bord de surveillance pour suivre la performance et les logs des agents, permettant une amélioration itérative et un déploiement transparent dans différents environnements.
  • Agent of Code est un assistant de codage alimenté par l'IA qui génère, débogue et refactorise du code dans plusieurs langues via les API d'OpenAI.
    0
    0
    Qu'est-ce que Agent of Code ?
    Agent of Code est un cadre d'agent IA polyvalent qui permet aux développeurs de déléguer les tâches de codage routinières à des agents intelligents. Il exploite de grands modèles linguistiques pour transformer des invites en langage naturel en code pleinement fonctionnel, effectuer des revues de code automatisées, déboguer le code existant et refactoriser des bases de code legacy. Les utilisateurs définissent les objectifs et paramètres de l'agent via des configurations YAML ou JSON, sélectionnent des plugins pour des tâches comme les tests ou l'intégration continue, et exécutent des agents via CLI. Le framework orchestre les appels API, gère les fenêtres de contexte, et assemble des réponses modulaires en scripts de code cohérents. Grâce à une architecture extensible, les développeurs peuvent ajouter des modules personnalisés, intégrer des systèmes de contrôle de version, et adapter le pipeline de l'agent aux flux de travail du projet.
  • Aladin est un framework open-source pour agents LLM autonomes permettant l'automatisation des flux de travail, la prise de décision basée sur la mémoire et l'orchestration de tâches via des plugins.
    0
    0
    Qu'est-ce que Aladin ?
    Aladin propose une architecture modulaire permettant aux développeurs de définir des agents autonomes propulsés par de grands modèles de langage (LLMs). Chaque agent peut charger des backends mémoire (ex. SQLite, en mémoire), utiliser des modèles de prompts dynamiques et intégrer des plugins personnalisés pour des appels API externes ou l'exécution de commandes locales. Il possède un planificateur de tâches qui décompose des objectifs de haut niveau en actions séquencées, les exécutant dans l'ordre et les réitérant basés sur le feedback de l'LLM. La configuration est gérée via des fichiers YAML et des variables d'environnement, l'adaptant à divers cas d'usage. Les utilisateurs peuvent déployer Aladin via Docker Compose ou pip. Les interfaces CLI et HTTP basées sur FastAPI permettent de lancer des agents, surveiller leur exécution et inspecter l'état de la mémoire, facilitant l'intégration avec des pipelines CI/CD, interfaces de chat ou dashboards personnalisés.
  • Cognita est un cadre RAG open-source qui permet de construire des assistants IA modulaires avec récupération de documents, recherche vectorielle et pipelines personnalisables.
    0
    0
    Qu'est-ce que Cognita ?
    Cognita offre une architecture modulaire pour la création d’applications RAG : ingestion et indexation des documents, sélection parmi OpenAI, TrueFoundry ou des fournisseurs tiers d’intégration, et configuration des pipelines de récupération via YAML ou Python DSL. Son interface frontend intégrée permet de tester les requêtes, d’ajuster les paramètres de récupération et de visualiser la similarité vectorielle. Une fois validé, Cognita fournit des modèles de déploiement pour Kubernetes et les environnements serverless, permettant de faire évoluer des assistants IA basés sur la connaissance en production avec observabilité et sécurité.
  • Dive est un cadre Python open-source pour créer des agents IA autonomes avec des outils et flux de travail modulables.
    0
    0
    Qu'est-ce que Dive ?
    Dive est un cadre open-source basé sur Python, conçu pour créer et exécuter des agents IA autonomes capables d'effectuer des tâches multi-étapes avec une intervention manuelle minimale. En définissant des profils d'agents dans des fichiers de configuration YAML simples, les développeurs peuvent spécifier des API, des outils et des modules de mémoire pour des tâches telles que la récupération de données, l'analyse et l'orchestration de pipelines. Dive gère le contexte, l'état et l'ingénierie des prompts, permettant des flux de travail flexibles avec gestion d'erreurs intégrée et journalisation. Son architecture modulaire supporte une large gamme de modèles linguistiques et de systèmes de récupération, facilitant la constitution d'agents pour l'automatisation du service client, la génération de contenu et les processus DevOps. Le cadre évolue de la prototype à la production, offrant des commandes CLI et des points de terminaison API pour une intégration transparente dans des systèmes existants.
  • Cadre Python open-source pour orchestrer des pipelines de génération augmentée par récupération dynamiques multi-agents avec une collaboration agent flexible.
    0
    0
    Qu'est-ce que Dynamic Multi-Agent RAG Pathway ?
    Le Dynamic Multi-Agent RAG Pathway offre une architecture modulaire où chaque agent gère des tâches spécifiques — telles que la récupération de documents, la recherche vectorielle, le résumé de contexte ou la génération — tandis qu’un orchestrateur central routage dynamiquement les entrées et sorties entre eux. Les développeurs peuvent définir des agents personnalisés, assembler des pipelines via des fichiers de configuration simples, et tirer parti du journalisation intégrée, de la surveillance et du support de plugin. Ce cadre accélère le développement de solutions RAG complexes, permettant une décomposition adaptative des tâches et un traitement parallèle pour améliorer le débit et la précision.
  • Collection de workflows d'agents AI préconçus pour Ollama LLM, permettant la synthèse automatisée, la traduction, la génération de code et autres tâches.
    0
    1
    Qu'est-ce que Ollama Workflows ?
    Ollama Workflows est une bibliothèque open-source de pipelines d'agents AI configurables construits sur le cadre Ollama LLM. Elle offre des dizaines de workflows prêts à l'emploi — comme la synthèse, la traduction, la revue de code, l'extraction de données, la rédaction d'e-mails, et plus encore — qui peuvent être chaînés dans des définitions YAML ou JSON. Les utilisateurs installent Ollama, clonant le dépôt, sélectionnant ou personnalisant un workflow, puis l'exécutent via CLI. Tout le traitement se fait localement sur votre machine, préservant la confidentialité des données tout en permettant une itération rapide et une sortie cohérente à travers les projets.
  • Julep AI crée des workflows d'IA évolutifs et sans serveur pour les équipes de science des données.
    0
    0
    Qu'est-ce que Julep AI ?
    Julep AI est une plateforme open-source conçue pour aider les équipes de science des données à construire, itérer et déployer rapidement des workflows d'IA en plusieurs étapes. Avec Julep, vous pouvez créer des pipelines d'IA évolutifs, durables et de longue durée en utilisant des agents, des tâches et des outils. La configuration basée sur YAML de la plateforme simplifie les processus d'IA complexes et garantit des workflows prêts pour la production. Elle prend en charge le prototypage rapide, la conception modulaire et l'intégration transparente avec les systèmes existants, ce qui la rend idéale pour gérer des millions d'utilisateurs simultanés tout en offrant une visibilité complète sur les opérations d'IA.
  • Un cadre Python pour construire des agents IA modulaires avec mémoire, planification et intégration d'outils.
    0
    0
    Qu'est-ce que Linguistic Agent System ?
    Le système Linguistic Agent est un cadre Open-Source Python conçu pour construire des agents intelligents qui exploitent les modèles de langage pour planifier et exécuter des tâches. Il inclut des composants pour la gestion de la mémoire, le registre d'outils, le planificateur et l'exécuteur, permettant aux agents de maintenir le contexte, d'appeler des API externes, d'effectuer des recherches sur le web et d'automatiser les flux de travail. Configurable via YAML, il prend en charge plusieurs fournisseurs de LLM, permettant un prototypage rapide de chatbots, résumeurs de contenu, et assistants autonomes. Les développeurs peuvent étendre la fonctionnalité en créant des outils et des backends de mémoire personnalisés, déployant des agents localement ou sur des serveurs.
  • Cadre pour aligner les sorties des grands modèles linguistiques avec la culture et les valeurs d'une organisation, en utilisant des directives personnalisables.
    0
    0
    Qu'est-ce que LLM-Culture ?
    LLM-Culture offre une approche structurée pour intégrer la culture organisationnelle dans les interactions avec de grands modèles linguistiques. Vous commencez par définir les valeurs et règles de style de votre marque dans un fichier de configuration simple. Le framework fournit ensuite une bibliothèque de modèles de prompts conçus pour appliquer ces directives. Après génération, la boîte à outils d’évaluation intégrée mesure l’alignement selon vos critères culturels et met en évidence toute incohérence. Enfin, vous déployez le framework avec votre pipeline LLM – via API ou sur site – afin que chaque réponse respecte constamment le ton, l’éthique et la personnalité de votre marque.
  • Un cadre basé sur Python orchestrant les interactions dynamiques entre agents IA avec des rôles personnalisables, le passage de messages et la coordination des tâches.
    0
    0
    Qu'est-ce que Multi-Agent-AI-Dynamic-Interaction ?
    Multi-Agent-AI-Dynamic-Interaction offre un environnement flexible pour concevoir, configurer et exécuter des systèmes composés de multiples agents IA autonomes. Chaque agent peut se voir attribuer des rôles, objectifs et protocoles de communication spécifiques. Le framework gère le passage des messages, le contexte de conversation ainsi que les interactions séquentielles ou parallèles. Il supporte l’intégration avec OpenAI GPT, d’autres API LLM et des modules personnalisés. Les utilisateurs définissent des scénarios via YAML ou scripts Python, en spécifiant les détails des agents, les étapes du flux de travail et les critères d’arrêt. Le système enregistre toutes les interactions pour le débogage et l’analyse, permettant un contrôle précis du comportement des agents pour des expériences en collaboration, négociation, prise de décision et résolution de problèmes complexes.
  • Cadriciel Python open-source orchestrant plusieurs agents IA pour débattre de sujets, analyser des arguments et parvenir à des conclusions collaboratives.
    0
    0
    Qu'est-ce que Multi-Agent Debate ?
    Multi-Agent Debate fournit une boîte à outils complète pour orchestrer des débats interactifs entre agents IA. Les développeurs clonent le dépôt, installent les dépendances et définissent des rôles comme Pro, Contra et Modérateur dans un fichier de configuration. Le cadre utilise les APIs OpenAI ou compatibles pour générer des tours structurés : déclarations d'ouverture, réfutations et remarques de clôture. Après chaque tour, l'agent Modérateur synthétise les points clés et enregistre les logs. Les utilisateurs peuvent ajuster la durée du débat, la personnalité des agents et les métriques de score. La conception modulaire permet l'intégration avec des LLM personnalisés, des architectures de plugins et des outils de visualisation pour analyse. Cela accélère la recherche en argumentation IA, prise de décision collaborative et génération automatique de contenu basée sur les résultats du débat.
  • Nexus Agents orchestre des agents alimentés par LLM avec une intégration dynamique d'outils, permettant la gestion automatisée des flux de travail et la coordination des tâches.
    0
    0
    Qu'est-ce que Nexus Agents ?
    Nexus Agents est un framework modulaire pour construire des systèmes multi-agents alimentés par l'IA avec de grands modèles de langage au cœur. Les développeurs peuvent définir des agents personnalisés, intégrer des outils externes et orchestrer des flux de travail via des configurations déclaratives YAML ou Python. Il supporte le routage dynamique des tâches, la gestion de la mémoire et la communication inter-agents, assurant une automatisation évolutive et fiable. Avec une journalisation intégrée, la gestion des erreurs et le support CLI, Nexus Agents simplifie la construction de pipelines complexes couvrant la récupération de données, l’analyse, la génération de contenu et les interactions client. Son architecture permet une extension facile avec des outils ou fournisseurs LLM personnalisés, permettant aux équipes d’automatiser des processus commerciaux, des tâches de recherche et des flux opérationnels de manière cohérente et maintenable.
  • Un framework Python permettant de définir et d'exécuter facilement des flux de travail d'agents d'IA de manière déclarative en utilisant des spécifications de style YAML.
    0
    0
    Qu'est-ce que Noema Declarative AI ?
    Noema Declarative AI permet aux développeurs et chercheurs de spécifier des agents d'IA et leurs flux de travail de manière déclarative. En écrivant des fichiers de configuration YAML ou JSON, vous définissez des agents, des prompts, des outils et des modules de mémoire. Le runtime Noema analyse ces définitions, charge des modèles de langage, exécute chaque étape de votre pipeline, gère l’état et le contexte, et renvoie des résultats structurés. Cette approche réduit la répétition de code, améliore la reproductibilité et sépare la logique de l'exécution, ce qui le rend idéal pour le prototypage de chatbots, scripts d'automatisation et expériences de recherche.
  • Pipe Pilot est un cadre Python qui orchestre des pipelines d’agents pilotés par LLM, permettant des flux de travail IA complexes à plusieurs étapes avec facilité.
    0
    0
    Qu'est-ce que Pipe Pilot ?
    Pipe Pilot est un outil open-source qui permet aux développeurs de créer, visualiser et gérer des pipelines IA en Python. Il offre une API déclarative ou une configuration YAML pour chaîner des tâches telles que génération de texte, classification, enrichissement de données et appels API REST. Les utilisateurs peuvent mettre en œuvre des branches conditionnelles, des boucles, des réinitialisations et des gestionnaires d’erreurs pour créer des workflows résilients. Pipe Pilot maintient le contexte d’exécution, enregistre chaque étape et supporte des modes d’exécution parallèles ou séquentiels. Il s’intègre avec les principaux fournisseurs LLM, des fonctions personnalisées et des services externes, idéal pour automatiser des rapports, chatbots, le traitement intelligent de données et des applications d’IA complexes en plusieurs étapes.
  • AgentSmith est un cadre open-source orchestrant des flux de travail multi-agent autonomes utilisant des assistants basés sur LLM.
    0
    0
    Qu'est-ce que AgentSmith ?
    AgentSmith est un cadre modulaire d’orchestration d’agents en Python, permettant aux développeurs de définir, configurer et exécuter plusieurs agents IA en collaboration. Chaque agent peut se voir attribuer des rôles spécialisés — chercheur, planificateur, codeur ou réviseur — et communiquer via un bus de messages interne. AgentSmith supporte la gestion de mémoire via des magasins vectoriels comme FAISS ou Pinecone, la décomposition des tâches en sous-tâches et la supervision automatisée pour assurer l’atteinte des objectifs. Les agents et les pipelines sont configurés via des fichiers YAML lisibles par l’humain, et le framework s’intègre facilement avec les API OpenAI et des modèles LLM personnalisés. Il inclut la journalisation, la surveillance et la gestion des erreurs intégrées, ce qui en fait un outil idéal pour automatiser le développement logiciel, l’analyse de données et les systèmes de support à la décision.
  • Un cadre multi-agent open-source orchestrant les LLM pour une intégration d'outils dynamique, une gestion de la mémoire et un raisonnement automatisé.
    0
    0
    Qu'est-ce que Avalon-LLM ?
    Avalon-LLM est un cadre d'IA multi-agent basé sur Python qui permet aux utilisateurs d'orchestrer plusieurs agents pilotés par LLM dans un environnement coordonné. Chaque agent peut être configuré avec des outils spécifiques — y compris la recherche web, les opérations sur fichiers et les API personnalisés — pour réaliser des tâches spécialisées. Le cadre supporte des modules de mémoire pour stocker le contexte des conversations et les connaissances à long terme, un raisonnement en chaîne pour améliorer la prise de décision, et des pipelines d’évaluation intégrés pour benchmarker la performance des agents. Avalon-LLM offre un système de plugins modulaire, permettant aux développeurs d’ajouter ou de remplacer facilement des composants comme les fournisseurs de modèles, les kits d’outils et les magasins de mémoire. Avec des fichiers de configuration simples et des interfaces en ligne de commande, les utilisateurs peuvent déployer, surveiller et étendre des flux de travail d’IA autonomes adaptés pour la recherche, le développement et la production.
Vedettes