Outils YAML configuration simples et intuitifs

Explorez des solutions YAML configuration conviviales, conçues pour simplifier vos projets et améliorer vos performances.

YAML configuration

  • Eunomia est un cadre d'agent AI basé sur la configuration, permettant une Assemblage rapide et déploiement d'agents conversationnels multi-outils via YAML.
    0
    0
    Qu'est-ce que Eunomia ?
    Eunomia utilise une approche axée sur la configuration pour orchestrer des agents AI. Via YAML, les utilisateurs définissent les rôles de l'agent, les modèles d'invite, les intégrations d'outils, les stocks de mémoire et la logique de branchement. Le cadre supporte des outils synchrones/asynchrones, la génération augmentée par récupération et l'invocation de chaîne de pensée. Un système de plugins extensible permet des outils personnalisés, des backend de mémoire et des intégrations de journalisation. La CLI d'Eunomia crée la structure du projet, valide les configs et exécute les agents localement ou dans des environnements cloud. Cela permet aux équipes de rapidement prototyper, itérer sur les flux de conversation et maintenir des solutions d'agents sans développement personnalisé lourd.
  • OpenMAS est une plateforme de simulation multi-agent open-source offrant des comportements d'agents personnalisables, des environnements dynamiques et des protocoles de communication décentralisés.
    0
    0
    Qu'est-ce que OpenMAS ?
    OpenMAS est conçu pour faciliter le développement et l'évaluation d'agents d'IA décentralisés et de stratégies de coordination multi-agents. Il dispose d'une architecture modulaire permettant aux utilisateurs de définir des comportements d'agents personnalisés, des modèles d'environnement dynamiques et des protocoles de messagerie inter-agents. Le cadre prend en charge la simulation basée sur la physique, l'exécution événementielle et l'intégration de plugins pour les algorithmes d'IA. Les utilisateurs peuvent configurer des scénarios via YAML ou Python, visualiser les interactions des agents et collecter des métriques de performance via des outils d'analyse intégrés. OpenMAS rationalise la prototypage dans des domaines tels que l'intelligence en essaim, la robotique coopérative et la prise de décision distribuée.
  • Une plateforme d'agent IA open-source permettant la planification modulaire, la gestion de la mémoire et l'intégration d'outils pour des workflows automatisés et à plusieurs étapes.
    0
    0
    Qu'est-ce que Pillar ?
    Pillar est un framework d'agents IA complet conçu pour simplifier le développement et le déploiement de workflows intelligents à plusieurs étapes. Il dispose d'une architecture modulaire avec des planificateurs pour la décomposition des tâches, des stockages de mémoire pour la rétention de contexte et des exécutants qui réalisent des actions via des API externes ou du code personnalisé. Les développeurs peuvent définir des pipelines d'agents en YAML ou JSON, intégrer n'importe quel fournisseur LLM et étendre la fonctionnalité via des plugins personnalisés. Pillar gère l'exécution asynchrone et la gestion du contexte en standard, réduisant le code boilerplate et accélérant la mise sur le marché d'applications basées sur l'IA telles que les chatbots, les assistants d'analyse de données et l'automatisation des processus métier.
  • Une bibliothèque Python légère pour créer des environnements de grille 2D personnalisables pour former et tester des agents d'apprentissage par renforcement.
    0
    0
    Qu'est-ce que Simple Playgrounds ?
    Simple Playgrounds fournit une plateforme modulaire pour construire des environnements interactifs en grille 2D où des agents peuvent naviguer dans des labyrinthes, interagir avec des objets et accomplir des tâches. Les utilisateurs définissent la disposition de l'environnement, le comportement des objets et les fonctions de récompense via des scripts YAML ou Python simples. Le moteur de rendu Pygame intégré fournit une visualisation en temps réel, tandis qu'une API basée sur des pas garantit une intégration fluide avec des bibliothèques de RL comme Stable Baselines3. Avec le support pour des configurations multi-agent, la détection de collisions et des paramètres physiques personnalisables, Simple Playgrounds facilite les prototypes, le benchmarking et les démonstrations éducatives d'algorithmes IA.
  • Spellcaster est une plateforme open-source pour définir, tester et orchestrer des agents IA alimentés par GPT via des sorts modélisés.
    0
    0
    Qu'est-ce que Spellcaster ?
    Spellcaster propose une approche structurée pour construire des agents IA en utilisant des 'sorts' — une combinaison d'invites, de logique et de workflows. Les développeurs écrivent des configurations YAML pour définir le rôle, les entrées, les sorties et les étapes d'orchestration des agents. L'outil CLI exécute les sorts, route les messages et s'intègre de manière transparente avec OpenAI, Anthropic et d'autres API LLM. Spellcaster suit les logs d'exécution, conserve le contexte de la conversation et prend en charge des plugins personnalisés pour le pré-traitement et le post-traitement. Son interface de débogage visualise la séquence d'appels et les flux de données, facilitant l'identification des échecs de prompt et des problèmes de performance. En abstraisant les modèles complexes d'orchestration et en standardisant les modèles de prompts, Spellcaster réduit la charge de développement et garantit un comportement cohérent des agents dans divers environnements.
  • SpongeCake est un framework Python qui rationalise la construction d'agents IA personnalisés avec intégrations Langchain et orchestration d'outils.
    0
    0
    Qu'est-ce que SpongeCake ?
    En substance, SpongeCake est une couche d'abstraction de haut niveau sur Langchain conçue pour accélérer le développement d'agents IA. Elle offre un support intégré pour enregistrer des outils — comme la recherche web, les connecteurs de bases de données ou les APIs personnalisées — gérer des modèles de prompts et persister la mémoire de conversation. Avec des configurations basées sur le code ou YAML, les équipes peuvent définir de manière déclarative le comportement des agents, chaîner des flux de travail multi-étapes et permettre une sélection dynamique des outils. La CLI incluse facilite les tests locaux, le débogage et le déploiement, faisant de SpongeCake un choix idéal pour construire des chatbots, des automatisateurs de tâches et des assistants spécifiques au domaine, le tout sans répétition de boilerplate.
  • Un agent IA automatisant le développement piloté par les tests : il génère des tests, du code d'implémentation, et exécute des itérations avec des modèles GPT.
    0
    0
    Qu'est-ce que TDD-GPT-Agent ?
    TDD-GPT-Agent intègre les modèles GPT-4 ou GPT-3.5 d'OpenAI dans une CLI basée sur Python pour piloter un cycle de développement piloté par les tests entièrement automatisé. Sur la base d'une spécification de fonction par un développeur, il génère des fichiers de test pytest, exécute localement les tests, analyse les échecs, et produit du code d'implémentation pour satisfaire les assertions. Il répète le cycle jusqu'à ce que tous les tests passent. Configurable via un fichier YAML, l'agent supporte la personnalisation des prompts, la journalisation des sessions, l'intégration Git, et peut être intégré dans des pipelines CI/CD pour une assurance qualité continue. Ce workflow basé sur l'IA accélère le développement, améliore la couverture et garantit la fiabilité du code.
  • Agent Forge est un framework CLI pour la création, l'orchestration et le déploiement d'agents IA intégrés avec LLMs et outils externes.
    0
    0
    Qu'est-ce que Agent Forge ?
    Agent Forge simplifie le cycle de vie complet du développement d'agents IA en offrant des commandes CLI pour générer du code de squelette, des modèles de conversation et des paramètres de configuration. Les développeurs peuvent définir des rôles d'agents, attacher des fournisseurs LLM, et intégrer des outils externes tels que des bases de données vectorielles, des API REST et des plugins personnalisés à l'aide de descripteurs YAML ou JSON. Le framework permet une exécution locale, des tests interactifs, et l'emballage des agents en images Docker ou fonctions serverless pour un déploiement facile. La journalisation intégrée, les profils d'environnement et les hooks VCS simplifient le débogage, la collaboration et les pipelines CI/CD. Cette architecture flexible supporte la création de chatbots, d'assistants de recherche autonomes, de bots de support client, et de flux de travail automatisés de traitement de données avec un minimum de configuration.
  • Agent Nexus est un cadre open-source pour la création, l'orchestration et le test d'agents IA via des pipelines personnalisables.
    0
    0
    Qu'est-ce que Agent Nexus ?
    Agent Nexus offre une architecture modulaire pour la conception, la configuration et l'exécution d'agents IA interconnectés qui collaborent pour résoudre des tâches complexes. Les développeurs peuvent enregistrer dynamiquement des agents, personnaliser leur comportement via des modules Python et définir des pipelines de communication via des configurations YAML simples. Le routeur de messages intégré garantit un flux de données fiable entre les agents, tandis que les outils de journalisation et de surveillance intégrés aident à suivre les performances et à déboguer les workflows. Avec le support de bibliothèques IA populaires comme OpenAI et Hugging Face, Agent Nexus simplifie l'intégration de modèles divers. Que ce soit pour prototyper des expériences de recherche, construire des assistants automatisés pour le service client ou simuler des environnements multi-agents, Agent Nexus rationalise le développement et le test de systèmes IA collaboratifs, de la recherche académique aux déploiements commerciaux.
  • AgentIn est un framework open-source Python pour créer des agents IA avec mémoire personnalisable, intégration d'outils et génération automatique de prompts.
    0
    0
    Qu'est-ce que AgentIn ?
    AgentIn est un framework IA basé sur Python conçu pour accélérer le développement d'agents conversationnels et orientés tâche. Il offre des modules de mémoire intégrés pour persister le contexte, une intégration dynamique d'outils pour appeler des API externes ou des fonctions locales, et un système flexible de templates de prompts pour des interactions personnalisées. L'orchestration multi-agents permet des workflows en parallèle, tandis que la journalisation et le cache améliorent la fiabilité et la traçabilité. Facilement configurable via YAML ou code Python, AgentIn supporte les principaux fournisseurs LLM et peut être étendu avec des plugins personnalisés pour des capacités spécifiques au domaine.
  • Agent-Baba permet aux développeurs de créer des agents IA autonomes avec des plugins personnalisables, une mémoire conversationnelle et des workflows automatisés.
    0
    0
    Qu'est-ce que Agent-Baba ?
    Agent-Baba offre une boîte à outils complète pour créer et gérer des agents IA autonomes adaptés à des tâches spécifiques. Il propose une architecture de plugins pour étendre les capacités, un système de mémoire pour conserver le contexte conversationnel, et une automatisation de flux de travail pour l'exécution séquentielle des tâches. Les développeurs peuvent intégrer des outils comme des scrapeurs web, des bases de données et des API personnalisées dans les agents. Le framework simplifie la configuration via des schémas déclaratifs YAML ou JSON, supporte la collaboration multi-agents, et fournit des tableaux de bord de surveillance pour suivre la performance et les logs des agents, permettant une amélioration itérative et un déploiement transparent dans différents environnements.
  • Agent of Code est un assistant de codage alimenté par l'IA qui génère, débogue et refactorise du code dans plusieurs langues via les API d'OpenAI.
    0
    0
    Qu'est-ce que Agent of Code ?
    Agent of Code est un cadre d'agent IA polyvalent qui permet aux développeurs de déléguer les tâches de codage routinières à des agents intelligents. Il exploite de grands modèles linguistiques pour transformer des invites en langage naturel en code pleinement fonctionnel, effectuer des revues de code automatisées, déboguer le code existant et refactoriser des bases de code legacy. Les utilisateurs définissent les objectifs et paramètres de l'agent via des configurations YAML ou JSON, sélectionnent des plugins pour des tâches comme les tests ou l'intégration continue, et exécutent des agents via CLI. Le framework orchestre les appels API, gère les fenêtres de contexte, et assemble des réponses modulaires en scripts de code cohérents. Grâce à une architecture extensible, les développeurs peuvent ajouter des modules personnalisés, intégrer des systèmes de contrôle de version, et adapter le pipeline de l'agent aux flux de travail du projet.
  • Aladin est un framework open-source pour agents LLM autonomes permettant l'automatisation des flux de travail, la prise de décision basée sur la mémoire et l'orchestration de tâches via des plugins.
    0
    0
    Qu'est-ce que Aladin ?
    Aladin propose une architecture modulaire permettant aux développeurs de définir des agents autonomes propulsés par de grands modèles de langage (LLMs). Chaque agent peut charger des backends mémoire (ex. SQLite, en mémoire), utiliser des modèles de prompts dynamiques et intégrer des plugins personnalisés pour des appels API externes ou l'exécution de commandes locales. Il possède un planificateur de tâches qui décompose des objectifs de haut niveau en actions séquencées, les exécutant dans l'ordre et les réitérant basés sur le feedback de l'LLM. La configuration est gérée via des fichiers YAML et des variables d'environnement, l'adaptant à divers cas d'usage. Les utilisateurs peuvent déployer Aladin via Docker Compose ou pip. Les interfaces CLI et HTTP basées sur FastAPI permettent de lancer des agents, surveiller leur exécution et inspecter l'état de la mémoire, facilitant l'intégration avec des pipelines CI/CD, interfaces de chat ou dashboards personnalisés.
  • Cognita est un cadre RAG open-source qui permet de construire des assistants IA modulaires avec récupération de documents, recherche vectorielle et pipelines personnalisables.
    0
    0
    Qu'est-ce que Cognita ?
    Cognita offre une architecture modulaire pour la création d’applications RAG : ingestion et indexation des documents, sélection parmi OpenAI, TrueFoundry ou des fournisseurs tiers d’intégration, et configuration des pipelines de récupération via YAML ou Python DSL. Son interface frontend intégrée permet de tester les requêtes, d’ajuster les paramètres de récupération et de visualiser la similarité vectorielle. Une fois validé, Cognita fournit des modèles de déploiement pour Kubernetes et les environnements serverless, permettant de faire évoluer des assistants IA basés sur la connaissance en production avec observabilité et sécurité.
  • Dive est un cadre Python open-source pour créer des agents IA autonomes avec des outils et flux de travail modulables.
    0
    0
    Qu'est-ce que Dive ?
    Dive est un cadre open-source basé sur Python, conçu pour créer et exécuter des agents IA autonomes capables d'effectuer des tâches multi-étapes avec une intervention manuelle minimale. En définissant des profils d'agents dans des fichiers de configuration YAML simples, les développeurs peuvent spécifier des API, des outils et des modules de mémoire pour des tâches telles que la récupération de données, l'analyse et l'orchestration de pipelines. Dive gère le contexte, l'état et l'ingénierie des prompts, permettant des flux de travail flexibles avec gestion d'erreurs intégrée et journalisation. Son architecture modulaire supporte une large gamme de modèles linguistiques et de systèmes de récupération, facilitant la constitution d'agents pour l'automatisation du service client, la génération de contenu et les processus DevOps. Le cadre évolue de la prototype à la production, offrant des commandes CLI et des points de terminaison API pour une intégration transparente dans des systèmes existants.
  • Cadre Python open-source pour orchestrer des pipelines de génération augmentée par récupération dynamiques multi-agents avec une collaboration agent flexible.
    0
    0
    Qu'est-ce que Dynamic Multi-Agent RAG Pathway ?
    Le Dynamic Multi-Agent RAG Pathway offre une architecture modulaire où chaque agent gère des tâches spécifiques — telles que la récupération de documents, la recherche vectorielle, le résumé de contexte ou la génération — tandis qu’un orchestrateur central routage dynamiquement les entrées et sorties entre eux. Les développeurs peuvent définir des agents personnalisés, assembler des pipelines via des fichiers de configuration simples, et tirer parti du journalisation intégrée, de la surveillance et du support de plugin. Ce cadre accélère le développement de solutions RAG complexes, permettant une décomposition adaptative des tâches et un traitement parallèle pour améliorer le débit et la précision.
  • Collection de workflows d'agents AI préconçus pour Ollama LLM, permettant la synthèse automatisée, la traduction, la génération de code et autres tâches.
    0
    1
    Qu'est-ce que Ollama Workflows ?
    Ollama Workflows est une bibliothèque open-source de pipelines d'agents AI configurables construits sur le cadre Ollama LLM. Elle offre des dizaines de workflows prêts à l'emploi — comme la synthèse, la traduction, la revue de code, l'extraction de données, la rédaction d'e-mails, et plus encore — qui peuvent être chaînés dans des définitions YAML ou JSON. Les utilisateurs installent Ollama, clonant le dépôt, sélectionnant ou personnalisant un workflow, puis l'exécutent via CLI. Tout le traitement se fait localement sur votre machine, préservant la confidentialité des données tout en permettant une itération rapide et une sortie cohérente à travers les projets.
  • Julep AI crée des workflows d'IA évolutifs et sans serveur pour les équipes de science des données.
    0
    0
    Qu'est-ce que Julep AI ?
    Julep AI est une plateforme open-source conçue pour aider les équipes de science des données à construire, itérer et déployer rapidement des workflows d'IA en plusieurs étapes. Avec Julep, vous pouvez créer des pipelines d'IA évolutifs, durables et de longue durée en utilisant des agents, des tâches et des outils. La configuration basée sur YAML de la plateforme simplifie les processus d'IA complexes et garantit des workflows prêts pour la production. Elle prend en charge le prototypage rapide, la conception modulaire et l'intégration transparente avec les systèmes existants, ce qui la rend idéale pour gérer des millions d'utilisateurs simultanés tout en offrant une visibilité complète sur les opérations d'IA.
  • Un cadre Python pour construire des agents IA modulaires avec mémoire, planification et intégration d'outils.
    0
    0
    Qu'est-ce que Linguistic Agent System ?
    Le système Linguistic Agent est un cadre Open-Source Python conçu pour construire des agents intelligents qui exploitent les modèles de langage pour planifier et exécuter des tâches. Il inclut des composants pour la gestion de la mémoire, le registre d'outils, le planificateur et l'exécuteur, permettant aux agents de maintenir le contexte, d'appeler des API externes, d'effectuer des recherches sur le web et d'automatiser les flux de travail. Configurable via YAML, il prend en charge plusieurs fournisseurs de LLM, permettant un prototypage rapide de chatbots, résumeurs de contenu, et assistants autonomes. Les développeurs peuvent étendre la fonctionnalité en créant des outils et des backends de mémoire personnalisés, déployant des agents localement ou sur des serveurs.
  • Cadre pour aligner les sorties des grands modèles linguistiques avec la culture et les valeurs d'une organisation, en utilisant des directives personnalisables.
    0
    0
    Qu'est-ce que LLM-Culture ?
    LLM-Culture offre une approche structurée pour intégrer la culture organisationnelle dans les interactions avec de grands modèles linguistiques. Vous commencez par définir les valeurs et règles de style de votre marque dans un fichier de configuration simple. Le framework fournit ensuite une bibliothèque de modèles de prompts conçus pour appliquer ces directives. Après génération, la boîte à outils d’évaluation intégrée mesure l’alignement selon vos critères culturels et met en évidence toute incohérence. Enfin, vous déployez le framework avec votre pipeline LLM – via API ou sur site – afin que chaque réponse respecte constamment le ton, l’éthique et la personnalité de votre marque.
Vedettes