Outils plugin architecture simples et intuitifs

Explorez des solutions plugin architecture conviviales, conçues pour simplifier vos projets et améliorer vos performances.

plugin architecture

  • Un cadre Python léger permettant aux agents IA basés sur GPT avec une planification intégrée, une mémoire et une intégration d'outils.
    0
    0
    Qu'est-ce que ggfai ?
    ggfai fournit une interface unifiée pour définir des objectifs, gérer le raisonnement à plusieurs étapes et maintenir le contexte de conversation avec des modules de mémoire. Il prend en charge des intégrations d'outils personnalisables pour appeler des services ou APIs externes, des flux d'exécution asynchrones et des abstractions sur les modèles GPT d'OpenAI. L'architecture de plugins du cadre vous permet d'échanger des backends de mémoire, des magasins de connaissances et des modèles d'action, simplifiant l'orchestration d'agents dans des tâches telles que le support client, la récupération de données ou les assistants personnels.
  • GPA-LM est un cadre d'agent Open-Source qui décompose les tâches, gère les outils et orchestre les flux de travail multi-étapes des modèles linguistiques.
    0
    0
    Qu'est-ce que GPA-LM ?
    GPA-LM est un framework basé sur Python conçu pour simplifier la création et l'orchestration d'agents IA alimentés par de grands modèles linguistiques. Il comporte un planificateur qui décompose les instructions de haut niveau en sous-tâches, un exécuteur qui gère les appels d'outils et les interactions, et un module de mémoire qui conserve le contexte entre les sessions. L'architecture plugin permet aux développeurs d'ajouter des outils, API et logiques de décision personnalisés. Avec le support multi-agent, GPA-LM peut coordonner des rôles, répartir des tâches et agréger des résultats. Il s'intègre facilement à des LLM populaires comme OpenAI GPT et prend en charge le déploiement dans divers environnements. Le cadre accélère le développement d'agents autonomes pour la recherche, l'automatisation et la prototypie d'applications.
  • CamelAGI est un cadre d'agent IA open-source offrant des composants modulaires pour créer des agents autonomes à mémoire.
    0
    0
    Qu'est-ce que CamelAGI ?
    CamelAGI est un cadre open-source conçu pour simplifier la création d'agents IA autonomes. Il dispose d'une architecture de plugins pour des outils personnalisés, d'une intégration de mémoire à long terme pour la persistance du contexte, et du support pour plusieurs grands modèles linguistiques tels que GPT-4 et Llama 2. Grâce à des modules de planification et d'exécution explicites, les agents peuvent décomposer des tâches, appeler des API externes et s'adapter au fil du temps. La extensibilité et l'approche communautaire rendent CamelAGI adapté pour des prototypes de recherche, des systèmes de production et des projets éducatifs.
  • JARVIS-1 est un agent IA open-source local qui automatise les tâches, planifie des réunions, exécute du code et maintient la mémoire.
    0
    0
    Qu'est-ce que JARVIS-1 ?
    JARVIS-1 offre une architecture modulaire combinant une interface en langage naturel, un module mémoire et un exécuteur de tâches basé sur des plugins. Bâti sur GPT-index, il sauvegarde les conversations, récupère le contexte et évolue avec les interactions de l’utilisateur. Les utilisateurs définissent des tâches via des prompts simples, tandis que JARVIS-1 orchestre la planification des travaux, l'exécution du code, la manipulation de fichiers et la navigation web. Son système de plugins permet des intégrations sur mesure pour les bases de données, e-mails, PDFs et services cloud. Déployable via Docker ou CLI sur Linux, macOS et Windows, JARVIS-1 garantit un fonctionnement hors ligne et un contrôle total des données, ce qui le rend idéal pour les développeurs, équipes DevOps et utilisateurs avancés recherchant une automatisation sécurisée et extensible.
  • kilobees est un framework Python pour créer, orchestrer et gérer plusieurs agents IA collaborant dans des flux de travail modulaires.
    0
    0
    Qu'est-ce que kilobees ?
    kilobees est une plateforme d'orchestration multi-agent complète construite en Python, qui simplifie le développement de flux de travail IA complexes. Les développeurs peuvent définir des agents individuels avec des rôles spécialisés, tels que l'extraction de données, le traitement du langage naturel, l'intégration d'API ou la logique de décision. kilobees gère automatiquement la messagerie inter-agent, les files d’attente de tâches, la récupération d’erreur et l’équilibrage de charge à travers des threads d'exécution ou des nœuds distribués. Son architecture plugin supporte des modèles de prompts personnalisés, des tableaux de bord de surveillance de la performance et des intégrations avec des services externes tels que bases de données, API web ou fonctions cloud. En abstraisant les défis communs de la coordination multi-agent, kilobees accélère le prototypage, les tests et le déploiement de systèmes IA sophistiqués nécessitant interactions collaboratives, exécution parallèle et extensibilité modulaire.
  • Fournit un backend FastAPI pour l'orchestration et l'exécution de workflows de modèles linguistiques basés sur des graphes dans l'interface graphique LangGraph.
    0
    0
    Qu'est-ce que LangGraph-GUI Backend ?
    Le backend LangGraph-GUI est un service open-source FastAPI qui alimente l'interface graphique LangGraph. Il gère les opérations CRUD sur les nœuds et arêtes du graphe, orchestre l'exécution des workflows pour divers modèles linguistiques, et retourne des résultats d'inférence en temps réel. Le backend supporte l'authentification, la journalisation et l'extensibilité via des plugins personnalisés, permettant aux utilisateurs de prototyper, tester et déployer des workflows complexes de traitement du langage naturel en mode paradigme visuel tout en conservant un contrôle total sur les pipelines d'exécution.
  • LangGraph-MAS4SE orchestrent des agents spécialisés alimentés par des grands modèles de langage (LLM) pour automatiser et optimiser les tâches d'ingénierie logicielle telles que la revue de code, les tests et la documentation.
    0
    0
    Qu'est-ce que LangGraph-MAS4SE ?
    LangGraph-MAS4SE est conçu comme un écosystème collaboratif d'agents intelligents, chacun spécialisé dans des phases distinctes de l'ingénierie logicielle. Au cœur, un bus de messages basé sur un graphe orchestre les flux de travail, permettant aux agents de publier et de s'abonner à des nœuds de données spécifiques à une tâche. Par exemple, un agent de synthèse de code génère des brouillons initiaux, qui sont ensuite transmis à un agent d'analyse statique pour les vérifications de qualité. Un agent de documentation produit des guides utilisateur basés sur des modules analysés, tandis qu'un agent de test génère automatiquement des tests unitaires. Le système supporte des interfaces de plugins pour le développement d'agents personnalisés, permettant aux équipes d'intégrer une logique spécifique au domaine. En abstraisant la gestion complexe des dépendances et en utilisant le raisonnement piloté par LLM, LangGraph-MAS4SE accélère les cycles de développement, réduit la surcharge manuelle et assure une cohérence du code dans de grands projets.
  • LlamaSim est un cadre Python pour simuler les interactions multi-agents et la prise de décision alimentée par les modèles de langage Llama.
    0
    0
    Qu'est-ce que LlamaSim ?
    En pratique, LlamaSim vous permet de définir plusieurs agents alimentés par l’IA utilisant le modèle Llama, de configurer des scénarios d’interaction et de lancer des simulations contrôlées. Vous pouvez personnaliser la personnalité des agents, la logique de décision et les canaux de communication à l’aide d’APIs Python simples. Le cadre gère automatiquement la construction des prompts, l’analyse des réponses et le suivi de l’état de la conversation. Il enregistre toutes les interactions et fournit des métriques d’évaluation intégrées telles que la cohérence des réponses, le taux de réalisation des tâches et la latence. Avec son architecture plugin, vous pouvez intégrer des sources de données externes, ajouter des fonctions d’évaluation personnalisées ou étendre les capacités des agents. La légèreté du noyau de LlamaSim le rend adapté au développement local, aux pipelines CI ou aux déploiements dans le cloud, permettant une recherche reproductible et une validation rapide de prototypes.
  • Une plateforme open-source en Python pour orchestrer des tournois entre grands modèles de langage afin de comparer automatiquement leurs performances.
    0
    0
    Qu'est-ce que llm-tournament ?
    llm-tournament offre une approche modulaire et extensible pour le benchmarking des grands modèles de langage. Les utilisateurs définissent les participants (LLMs), configurent les brackets de tournoi, spécifient les prompts et la logique de scoring, et exécutent des rounds automatisés. Les résultats sont agrégés dans des tableaux de classement et des visualisations, permettant des décisions basées sur les données pour la sélection et l’ajustement fin des LLM. Le framework supporte des définitions de tâches personnalisées, des métriques d’évaluation, et l’exécution par lot en environnement cloud ou local.
  • Un cadre open-source modulaire intégrant de grands modèles de langage aux plateformes de messagerie pour des agents IA personnalisés.
    0
    0
    Qu'est-ce que LLM to MCP Integration Engine ?
    LLM to MCP Integration Engine est un cadre open-source conçu pour intégrer de grands modèles de langage (LLMs) avec diverses plateformes de communication par messagerie (MCP). Il fournit des adaptateurs pour les API LLM telles qu'OpenAI et Anthropic, ainsi que des connecteurs pour des plateformes comme Slack, Discord et Telegram. Le moteur gère l'état des sessions, enrichit le contexte et route les messages bidirectionnellement. Son architecture basée sur des plugins permet aux développeurs d'étendre la prise en charge à de nouveaux fournisseurs et de personnaliser la logique métier, accélérant ainsi le déploiement d'agents IA en environnement de production.
  • Magi MDA est un cadre d'agent IA open-source permettant aux développeurs d'orchestrer des pipelines de raisonnement à plusieurs étapes avec des intégrations d'outils personnalisés.
    0
    0
    Qu'est-ce que Magi MDA ?
    Magi MDA est un cadre d'agent IA axé sur les développeurs qui simplifie la création et le déploiement d'agents autonomes. Il expose un ensemble de composants de base—planificateurs, exécuteurs, interprètes et mémoires—that peuvent être assemblés en pipelines personnalisés. Les utilisateurs peuvent se connecter aux fournisseurs LLM populaires pour la génération de texte, ajouter des modules de récupération pour l'augmentation des connaissances, et intégrer divers outils ou APIs pour des tâches spécialisées. Le framework gère automatiquement la raisonnement étape par étape, le routage des outils et la gestion du contexte, permettant aux équipes de se concentrer sur la logique métier plutôt que sur la gestion de l'orchestration.
  • Matcha Agent est un cadre open-source pour agents IA permettant aux développeurs de construire des agents autonomes personnalisables avec des outils intégrés.
    0
    0
    Qu'est-ce que Matcha Agent ?
    Matcha Agent fournit une base flexible pour la création d'agents autonomes en Python. Les développeurs peuvent configurer des agents avec des ensembles d'outils personnalisés (APIs, scripts, bases de données), gérer la mémoire conversationnelle et orchestrer des flux de travail multi-étapes sur différents LLM (OpenAI, modèles locaux, etc.). Son architecture basée sur des plugins permet une extension, un débogage et une surveillance aisés du comportement de l'agent. Que ce soit pour automatiser des tâches de recherche, d'analyse de données ou de support client, Matcha Agent simplifie le développement et le déploiement complet des agents.
  • Melissa est un cadre d’agent IA modulaire en open-source pour construire des agents conversationnels personnalisables avec mémoire et intégrations d’outils.
    0
    0
    Qu'est-ce que Melissa ?
    Melissa offre une architecture légère et extensible pour construire des agents pilotés par l’IA sans nécessiter beaucoup de code boilerplate. Au cœur, le framework exploite un système basé sur des plugins où les développeurs peuvent enregistrer des actions personnalisées, des connecteurs de données et des modules de mémoire. Le sous-système de mémoire permet la préservation du contexte à travers les interactions, améliorant la continuité conversationnelle. Des adaptateurs d’intégration permettent aux agents de récupérer et traiter des informations via APIs, bases de données ou fichiers locaux. En combinant une API simple, des outils CLI et des interfaces standardisées, Melissa facilite des tâches telles que l’automatisation des demandes clients, la génération de rapports dynamiques ou l’orchestration de flux de travail multi-étapes. Le cadre est indépendant du langage, adapté aux projets centrés sur Python et peut être déployé sur Linux, macOS ou dans des environnements Docker.
  • MiniAgent est un cadre léger en Python open source pour construire des agents IA qui planifient et exécutent des tâches en plusieurs étapes.
    0
    0
    Qu'est-ce que MiniAgent ?
    MiniAgent est un cadre minimaliste open source construit en Python pour la création d'agents IA autonomes capables de planifier et d'exécuter des workflows complexes. Au cœur, MiniAgent comprend un module de planification de tâches qui décompose des objectifs de haut niveau en étapes ordonnées, un contrôleur d'exécution qui exécute chaque étape séquentiellement, et des adaptateurs intégrés pour l'intégration d'outils et d'API externes, y compris les services web, bases de données et scripts personnalisés. Il dispose également d'un système léger de gestion de mémoire pour conserver les contextes conversationnels ou de tâches. Les développeurs peuvent facilement enregistrer des plugins d'action personnalisés, définir des règles de politique pour la prise de décision, et étendre la fonctionnalité des outils. Avec la prise en charge des modèles OpenAI et des LLM locaux, MiniAgent permet un prototypage rapide de chatbots, de travailleurs numériques et de pipelines automatisés, le tout sous licence MIT.
  • Une plateforme open-source Python permettant à plusieurs agents IA de collaborer pour résoudre des tâches complexes via une communication basée sur les rôles.
    0
    0
    Qu'est-ce que Multi-Agent ColComp ?
    Multi-Agent ColComp est un cadre extensible et open-source pour orchestrer une équipe d’agents IA dans des tâches complexes. Les développeurs peuvent définir des rôles d’agents distincts, configurer des canaux de communication et partager des données contextuelles via un stockage mémoire unifié. La bibliothèque inclut des composants plug-and-play pour négociation, coordination et consensus. Des configurations d’exemples illustrent la génération de texte collaborative, la planification distribuée et la simulation multi-agent. Son architecture modulaire facilite les extensions, permettant aux équipes de prototyper et d’évaluer rapidement des stratégies multi-agent en environnement de recherche ou de production.
  • Un cadre open-source pour créer des agents musicaux autonomes générant et interprétant des compositions musicales adaptatives en temps réel.
    0
    0
    Qu'est-ce que Musical-Agent-Systems ?
    Musical-Agent-Systems propose une architecture modulaire où chaque agent musical encapsule des modèles de comportement, des planificateurs d'événements et des contrôleurs de synthèse. Les utilisateurs définissent des agents via des fichiers de configuration ou du code, en spécifiant des algorithmes génératifs, des déclencheurs de réponse et des protocoles de communication pour la coordination d’ensemble. Le système supporte la performance en temps réel grâce à une planification efficace, permettant une adaptation dynamique aux entrées externes ou aux sorties d’autres agents. Il inclut des modules principaux pour la génération de motifs, la modélisation de styles basée sur l'apprentissage automatique, ainsi que l’intégration MIDI/OSC. Avec un support de plugins extensible, les développeurs peuvent ajouter des moteurs de synthèse personnalisés, des outils d’analyse ou des modèles d’IA. Idéal pour la recherche académique, les installations interactives et les performances algorithmiques en direct, le cadre relie créativité computationnelle et workflows pratiques de création musicale.
  • Nagato AI est un agent IA autonome open-source qui planifie des tâches, gère la mémoire et s'intègre avec des outils externes.
    0
    0
    Qu'est-ce que Nagato AI ?
    Nagato AI est un cadre d'agent IA extensible qui orchestre des flux de travail autonomes en combinant la planification des tâches, la gestion de la mémoire et l'intégration d'outils. Les utilisateurs peuvent définir des outils et APIs personnalisés, permettant à l'agent de récupérer des informations, d'effectuer des actions et de maintenir le contexte de la conversation sur de longues sessions. Avec son architecture plugin et son interface utilisateur conversationnelle, Nagato AI s'adapte à divers scénarios — de l'assistance à la recherche et l'analyse de données à la productivité personnelle et l'automatisation du support client — tout en restant entièrement open-source et convivial pour développeurs.
  • OmniMind0 est un cadre Python open-source permettant des workflows multi-agents autonomes avec gestion de mémoire intégrée et intégration de plugins.
    0
    0
    Qu'est-ce que OmniMind0 ?
    OmniMind0 est un cadre d’IA basé sur des agents complet, écrit en Python, permettant la création et l’orchestration de plusieurs agents autonomes. Chaque agent peut être configuré pour gérer des tâches spécifiques — comme la récupération de données, la synthèse ou la prise de décision — tout en partageant l’état via des backends de mémoire modulables comme Redis ou des fichiers JSON. L’architecture de plugins intégrée vous permet d’étendre la fonctionnalité avec des APIs externes ou des commandes personnalisées. Il prend en charge les modèles OpenAI, Azure et Hugging Face, et offre des déploiements via CLI, serveur API REST ou Docker pour une intégration flexible dans vos flux de travail.
  • Julep AI Responses est un SDK Node.js qui vous permet de construire, configurer et déployer des agents IA conversationnels personnalisés avec des workflows.
    0
    0
    Qu'est-ce que Julep AI Responses ?
    Julep AI Responses est un framework pour agents IA livré sous forme de SDK Node.js et de plateforme cloud. Les développeurs initialisent un objet Agent, définissent des gestionnaires onMessage pour des réponses personnalisées, gèrent l’état de la session pour des conversations contextuelles et intègrent des plugins ou API externes. La plateforme gère l’hébergement et la mise à l’échelle, permettant un prototypage rapide et un déploiement de chatbots, agents de support client ou assistants internes avec un minimum de configuration.
  • Un plugin OpenWebUI permettant des workflows de génération augmentée par récupération avec ingestion de documents, recherche vectorielle et chat.
    0
    0
    Qu'est-ce que Open WebUI Pipeline for RAGFlow ?
    Open WebUI Pipeline pour RAGFlow fournit aux développeurs et data scientists une pipeline modulaire pour construire des applications RAG (recherche augmentée par génération). Il supporte le téléchargement de documents, le calcul d'embeddings via diverses API LLM, et le stockage des vecteurs dans des bases de données locales pour une recherche de similarité efficace. Le framework orchestre les flux de récupération, synthèse et conversation, permettant des interfaces de chat en temps réel qui référencent des connaissances externes. Avec des prompts personnalisables, une compatibilité multi-modèles et une gestion de mémoire, il permet aux utilisateurs de créer des systèmes QA spécialisés, des résumeurs de documents et des assistants IA personnels dans un environnement Web UI interactif. L'architecture plugin permet une intégration transparente avec des configurations WebUI locales existantes comme Oobabooga. Il inclut des fichiers de configuration étape par étape et supporte le traitement par lots, le suivi du contexte conversationnel et des stratégies de récupération flexibles. Les développeurs peuvent étendre la pipeline avec des modules personnalisés pour la sélection de l'entrepôt vectoriel, la chaîne de prompts et la mémoire utilisateur, ce qui la rend idéale pour la recherche, le support client et les services de connaissances spécialisés.
Vedettes