Outils arquitectura de plugins simples et intuitifs

Explorez des solutions arquitectura de plugins conviviales, conçues pour simplifier vos projets et améliorer vos performances.

arquitectura de plugins

  • Un cadre basé sur Go permettant aux développeurs de créer, tester et exécuter des agents d'IA avec une logique en chaîne dans le processus et des outils personnalisables.
    0
    0
    Qu'est-ce que Goated Agents ?
    Goated Agents simplifie la création de systèmes autonomes sophistiqués pilotés par l'IA en Go. En intégrant le traitement en chaîne directement dans le runtime du langage, les développeurs peuvent mettre en œuvre un raisonnement multi-étapes avec des journaux intermédiaires transparents. La bibliothèque offre une API de définition d'outils, permettant aux agents d'appeler des services externes, des bases de données ou des modules de code personnalisés. La gestion de mémoire permet de maintenir un contexte persistant lors des interactions. L'architecture de plugins facilite l'extension des capacités principales telles que les wrappers d'outils, la journalisation et la surveillance. Goated Agents exploite la performance et la typage statique de Go pour fournir une exécution efficace et fiable des agents. Que ce soit pour créer des chatbots, des pipelines d'automatisation ou des prototypes de recherche, Goated Agents fournit les éléments de base pour orchestrer des flux de raisonnement complexes et intégrer intelligemment l'IA dans des applications Go.
  • GoLC est un cadre de chaînes LLM basé sur Go, permettant la création de modèles de requêtes, la récupération, la mémoire et les flux de travail d'agents utilisant des outils.
    0
    0
    Qu'est-ce que GoLC ?
    GoLC fournit aux développeurs une boîte à outils complète pour construire des chaînes de modèles linguistiques et des agents en Go. Elle comprend la gestion de chaînes, des modèles de requêtes personnalisables et une intégration transparente avec les principaux fournisseurs LLM. Grâce aux chargeurs de documents et aux magasins vectoriels, GoLC permet la récupération par embeddings, alimentant les flux de travaux RAG. Le cadre supporte des modules de mémoire à état pour le contexte conversationnel et une architecture légère d'agents pour orchestrer un raisonnement en plusieurs étapes et des invocations d'outils. Son design modulaire permet d'ajouter des outils, sources de données et gestionnaires de sortie personnalisés. Avec des performances natives Go et un minimum de dépendances, GoLC facilite le développement de pipelines IA, idéal pour créer des chatbots, assistants de connaissances, agents de raisonnement automatisé et services IA backend de classe production en Go.
  • Une plateforme open-source pour les agents IA modulaires avec intégration d'outils, gestion de la mémoire et orchestration multi-agent.
    0
    0
    Qu'est-ce que Isek ?
    Isek est une plateforme orientée développeur pour créer des agents IA avec une architecture modulaire. Elle propose un système de plugins pour les outils et sources de données, une mémoire intégrée pour la rétention du contexte et un moteur de planification pour coordonner les tâches en plusieurs étapes. Vous pouvez déployer des agents localement ou dans le cloud, intégrer n'importe quel backend LLM, et étendre la fonctionnalité via des modules communautaires ou personnalisés. Isek facilite la création de chatbots, d'assistants virtuels et de flux de travail automatisés grâce à des modèles, SDK et outils CLI pour un développement rapide.
  • Joylive Agent est un cadre open-source pour agent IA en Java qui orchestre les LLM avec des outils, la mémoire et des intégrations API.
    0
    0
    Qu'est-ce que Joylive Agent ?
    Joylive Agent offre une architecture modulaire basée sur des plugins, conçue pour créer des agents IA sophistiqués. Il fournit une intégration transparente avec des LLM tels que OpenAI GPT, des backends de mémoire configurables pour la persistance des sessions, et un gestionnaire de kits d'outils pour exposer des API externes ou des fonctions personnalisées comme capacités d'agent. Le cadre inclut également une orchestration de chaîne de réflexion intégrée, une gestion de dialogue multi-tours et un serveur RESTful pour un déploiement facile. Son noyau Java garantit une stabilité de niveau entreprise, permettant aux équipes de prototyper rapidement, d'étendre et de faire évoluer des assistants intelligents pour divers cas d'utilisation.
  • Kin Kernel est un cadre modulable d'agents IA permettant des workflows automatisés via orchestration LLM, gestion de mémoire et intégration d'outils.
    0
    0
    Qu'est-ce que Kin Kernel ?
    Kin Kernel est un noyau léger open-source pour la construction de travailleurs numériques alimentés par IA. Il fournit un système unifié pour orchestrer de grands modèles de langage, gérer la mémoire contextuelle et intégrer des outils ou API personnalisés. Avec une architecture basée sur les événements, Kin Kernel supporte l'exécution asynchrone de tâches, le suivi des sessions et des plugins extensibles. Les développeurs définissent le comportement des agents, enregistrent des fonctions externes, et configurent le routage multi-LLM pour automatiser des workflows allant de l'extraction de données au support client. Le framework inclut aussi une journalisation intégrée et une gestion d'erreurs pour faciliter la surveillance et le débogage. Conçu pour la flexibilité, Kin Kernel peut être intégré dans des services web, microservices ou applications Python autonomes, permettant aux organisations de déployer des agents IA robustes à grande échelle.
  • LinkAgent orchestre plusieurs modèles de langage, systèmes de récupération et outils externes pour automatiser des flux de travail complexes basés sur l'IA.
    0
    0
    Qu'est-ce que LinkAgent ?
    LinkAgent fournit un micronoyau léger pour construire des agents d'IA avec des composants plug-in. Les utilisateurs peuvent enregistrer des backends de modèles de langage, des modules de récupération et des API externes en tant qu'outils, puis les assembler en workflows utilisant des planificateurs et routeurs intégrés. LinkAgent supporte des gestionnaires de mémoire pour la persistance du contexte, l'invocation dynamique d'outils et une logique de décision configurable pour un raisonnement complexe à plusieurs étapes. Avec peu de code, les équipes peuvent automatiser des tâches telles que le QA, l'extraction de données, l'orchestration de processus et la génération de rapports.
  • Llama-Agent est un cadre Python qui orchestre les LLM pour effectuer des tâches à étapes multiples en utilisant des outils, la mémoire et le raisonnement.
    0
    0
    Qu'est-ce que Llama-Agent ?
    Llama-Agent est une boîte à outils axée sur le développement pour créer des agents IA intelligents alimentés par de grands modèles linguistiques. Il offre une intégration d'outils pour appeler des API ou des fonctions externes, une gestion de la mémoire pour stocker et récupérer le contexte, et une planification en chaîne de pensée pour décomposer des tâches complexes. Les agents peuvent exécuter des actions, interagir avec des environnements personnalisés et s'adapter via un système de plugins. En tant que projet open-source, il supporte une extension facile des composants principaux, permettant des expérimentations rapides et le déploiement de flux de travail automatisés dans divers domaines.
  • Un framework Python permettant aux développeurs de définir, coordonner et simuler des interactions multi-agents reposant sur de grands modèles de langage.
    0
    0
    Qu'est-ce que LLM Agents Simulation Framework ?
    Le Framework de Simulation d'Agents LLM permet la conception, l'exécution et l'analyse d'environnements simulés où des agents autonomes interagissent via de grands modèles de langage. Les utilisateurs peuvent enregistrer plusieurs instances d'agents, assigner des invites et rôles personnalisables, et spécifier des canaux de communication tels que la transmission de messages ou un état partagé. Le framework orchestre les cycles de simulation, collecte des journaux et calcule des métriques comme la fréquence de passage de tour, la latence de réponse et les taux de succès. Il supporte une intégration transparente avec OpenAI, Hugging Face et des LLM locaux. Les chercheurs peuvent créer des scénarios complexes — négociation, allocation de ressources ou résolution collaborative de problèmes — pour observer des comportements émergents. Une architecture de plugins extensible permet d’ajouter de nouveaux comportements d'agents, contraintes environnementales ou modules de visualisation, favorisant des expériences reproductibles.
  • MACL est un cadre Python permettant la collaboration multi-agents, orchestrant des agents IA pour l'automatisation de tâches complexes.
    0
    0
    Qu'est-ce que MACL ?
    MACL est un cadre Python modulaire conçu pour simplifier la création et l'orchestration de multiples agents IA. Il vous permet de définir des agents individuels avec des compétences personnalisées, de configurer des canaux de communication et de planifier des tâches sur un réseau d'agents. Les agents peuvent échanger des messages, négocier des responsabilités et s'adapter dynamiquement en fonction des données partagées. Avec une prise en charge intégrée des LLM populaires et un système de plugins pour extensibilité, MACL permet des flux de travail IA évolutifs et faciles à maintenir dans des domaines tels que l'automatisation du service client, les pipelines d'analyse de données et les environnements de simulation.
  • MASChat est un cadre Python orchestrant plusieurs agents IA basés sur GPT avec des rôles dynamiques pour résoudre collaborativement des tâches via chat.
    0
    0
    Qu'est-ce que MASChat ?
    MASChat offre un cadre flexible pour orchestrer des conversations entre plusieurs agents IA alimentés par des modèles linguistiques. Les développeurs peuvent définir des agents avec des rôles spécifiques — comme chercheur, résumeur ou critique — et spécifier leurs invites, permissions et protocoles de communication. le gestionnaire central de MASChat gère le routage des messages, assure la conservation du contexte et enregistre les interactions pour la traçabilité. En coordonnant des agents spécialisés, MASChat décompose des tâches complexes — comme la recherche, la création de contenu ou l’analyse de données — en flux de travail parallèles, améliorant ainsi l’efficacité et la compréhension. Il s’intègre aux API GPT d’OpenAI ou aux LLM locaux et permet des extensions via des plugins pour des comportements personnalisés. MASChat est idéal pour le prototypage de stratégies multi-agent, la simulation d’environnements collaboratifs et l’exploration de comportements émergents dans les systèmes IA.
  • Minerva est un framework Python d'agents IA permettant des flux de travail multi-étapes autonomes avec planification, intégration d'outils et support mémoire.
    0
    0
    Qu'est-ce que Minerva ?
    Minerva est un framework d'agents IA extensible conçu pour automatiser des flux de travail complexes en utilisant de grands modèles de langage. Les développeurs peuvent intégrer des outils externes — tels que la recherche web, les API ou les processeurs de fichiers — définir des stratégies de planification personnalisées et gérer la mémoire conversationnelle ou persistante. Minerva supporte l'exécution synchrone et asynchrone de tâches, la journalisation configurable et une architecture de plugins, facilitant le prototypage, le test et le déploiement d'agents intelligents capables de raisonner, planifier et utiliser des outils dans des scénarios réels.
  • Framework open-source pour l'orchestration d'agents alimentés par LLM avec mémoire, intégrations d'outils et pipelines pour l'automatisation de flux de travail complexes dans divers domaines.
    0
    0
    Qu'est-ce que OmniSteward ?
    OmniSteward est une plateforme modulaire d'orchestration d'agents IA construite sur Python, connectée à OpenAI, à des LLM locaux et supportant des modèles personnalisés. Elle fournit des modules de mémoire pour stocker le contexte, des kits d'outils pour les appels API, la recherche web, l'exécution de code et les requêtes de base de données. Les utilisateurs définissent des modèles d'agents avec des invites, des flux de travail et des déclencheurs. Le framework orchestre plusieurs agents en parallèle, gère l'historique des conversations et automatise les tâches via des pipelines. Il comprend également de la journalisation, des tableaux de bord de surveillance, une architecture de plugins et une intégration avec des services tiers. OmniSteward simplifie la création d'assistants spécifiques à un domaine pour la recherche, les opérations, le marketing, etc., en offrant flexibilité, évolutivité et transparence open-source pour les entreprises et les développeurs.
  • Pi Web Agent est un agent AI basé sur le web open-source intégrant des LLM pour les tâches conversationnelles et la recherche de connaissances.
    0
    0
    Qu'est-ce que Pi Web Agent ?
    Pi Web Agent est un framework léger et extensible pour construire des agents de chat IA sur le web. Il utilise Python FastAPI en backend et un frontend React pour fournir des conversations interactives alimentées par OpenAI, Cohere ou LLM locaux. Les utilisateurs peuvent télécharger des documents ou connecter des bases de données externes pour une recherche sémantique via des magasins vectoriels. Une architecture de plugins permet d’intégrer des outils personnalisés, des appels de fonctions et des API tierces localement. Il offre un accès complet au code source, des modèles de prompt basés sur le rôle et une mémoire configurable pour créer des assistants IA personnalisés.
  • scenario-go est un SDK Go pour définir des flux de travail conversationnels complexes basés sur l'IA, gérer les invites, le contexte et les tâches AI à plusieurs étapes.
    0
    0
    Qu'est-ce que scenario-go ?
    scenario-go sert de cadre robuste pour construire des agents IA en Go en permettant aux développeurs d'écrire des définitions de scénarios qui spécifient des interactions étape par étape avec de grands modèles linguistiques. Chaque scénario peut incorporer des modèles d'invite, des fonctions personnalisées et un stockage de mémoire pour maintenir l'état de la conversation entre plusieurs tours. La boîte à outils s'intègre avec les principaux fournisseurs LLM via des API REST, permettant des cycles d'entrée-sortie dynamiques et des branches conditionnelles basées sur les réponses de l'IA. Avec une journalisation intégrée et une gestion des erreurs, scenario-go simplifie le débogage et la surveillance des flux de travail IA. Les développeurs peuvent composer des composants de scénarios réutilisables, chaîner plusieurs tâches IA et étendre la fonctionnalité via des plugins. Le résultat est une expérience de développement rationalisée pour construire des chatbots, des pipelines d'extraction de données, des assistants virtuels et des agents de support client automatisés entièrement en Go.
  • StableAgents permet la création et l'orchestration d'agents IA autonomes avec une planification modulaire, de la mémoire et des intégrations d'outils.
    0
    0
    Qu'est-ce que StableAgents ?
    StableAgents fournit une boîte à outils complète pour créer des agents IA autonomes capables de planifier, exécuter et adapter des workflows complexes en utilisant de grands modèles de langage. Il supporte des composants modulaires tels que planificateurs, magasins de mémoire, outils et évaluateurs. Les agents peuvent accéder à des API externes, réaliser des tâches augmentées par récupération et stocker le contexte des conversations ou interactions. Le framework comprend une CLI et un SDK Python, permettant le développement local ou le déploiement dans le cloud. Grâce à son architecture plugin, StableAgents s'intègre avec des fournisseurs de LLM populaires et des bases de données vectorielles, et inclut des tableaux de bord de surveillance et des logs pour le suivi des performances.
  • Construisez, testez et déployez des agents IA avec mémoire persistante, intégration d'outils, workflows personnalisés et orchestration multi-modèles.
    0
    0
    Qu'est-ce que Venus ?
    Venus est une bibliothèque Python open-source qui permet aux développeurs de concevoir, configurer et exécuter facilement des agents IA intelligents. Elle fournit une gestion intégrée des conversations, des options de stockage de mémoire persistante et un système de plugins flexible pour intégrer des outils et API externes. Les utilisateurs peuvent définir des workflows personnalisés, chaîner plusieurs appels LLM et incorporer des interfaces d'appel de fonction pour effectuer des tâches telles que la récupération de données, le web scraping ou les requêtes de base de données. Venus supporte une exécution synchrone et asynchrone, la journalisation, la gestion des erreurs et la surveillance des activités des agents. En abstraisant les interactions API de bas niveau, Venus permet un prototypage rapide et un déploiement de chatbots, assistants virtuels et workflows automatisés, tout en conservant un contrôle total sur le comportement des agents et l'utilisation des ressources.
  • Un assistant IA basé sur le navigateur permettant l'inférence locale et la diffusion en continu de grands modèles de langage avec WebGPU et WebAssembly.
    0
    0
    Qu'est-ce que MLC Web LLM Assistant ?
    Web LLM Assistant est un cadre open-source léger qui transforme votre navigateur en une plateforme d'inférence IA. Il utilise des backends WebGPU et WebAssembly pour exécuter directement des LLM sur les appareils clients sans serveur, garantissant confidentialité et capacité hors ligne. Les utilisateurs peuvent importer et changer de modèles tels que LLaMA, Vicuna et Alpaca, converser avec l'assistant et voir des réponses en streaming. L'interface modulaire basée sur React supporte les thèmes, l'historique des conversations, les invites système et des extensions de type plugin pour des comportements personnalisés. Les développeurs peuvent personnaliser l'interface, intégrer des API externes et ajuster finement les invites. Le déploiement ne nécessite que l'hébergement de fichiers statiques; aucun serveur backend n'est requis. Web LLM Assistant démocratise l'IA en permettant une inference locale haute performance dans tout navigateur moderne.
  • Wizard Language est un DSL déclaratif en TypeScript pour définir des agents IA avec orchestration des prompts et intégration d'outils.
    0
    0
    Qu'est-ce que Wizard Language ?
    Wizard Language est un langage spécifique au domaine déclaratif basé sur TypeScript pour rédiger des assistants IA en tant que magiciens. Les développeurs définissent des étapes pilotées par l'intention, des invites, des invocations d'outils, des magasins de mémoire et la logique de branchement dans un DSL concis. En coulisse, Wizard Language compile ces définitions en appels orchestrés à LLM, gérant le contexte, les flux asynchrones et la gestion des erreurs. Il accélère la création de prototypes de chatbots, assistants de récupération de données et flux de travail automatisés en abstrait la conception des prompts et la gestion d'état en composants réutilisables.
  • AAGPT est un framework open-source pour construire des agents IA autonomes avec planification à plusieurs étapes, gestion de la mémoire et intégrations d'outils.
    0
    0
    Qu'est-ce que AAGPT ?
    AAGPT est un cadre d'agents IA extensible et open-source conçu pour construire des agents autonomes. Il vous permet de définir des objectifs de haut niveau, de gérer la mémoire conversationnelle, de planifier des tâches à plusieurs étapes et d'intégrer des outils ou API externes. Avec un simple fichier de configuration et le SDK Python, vous pouvez personnaliser le comportement de l'agent, définir des actions personnalisées, et déployer des agents pouvant interagir avec des sources de données, exécuter des commandes et apprendre de leurs interactions passées pour améliorer leurs performances au fil du temps.
  • AChat.dev est une plateforme d'agents AI axée sur les développeurs, offrant des chatbots contextuels avec mémoire et intégrations personnalisées.
    0
    0
    Qu'est-ce que AChat.dev ?
    AChat.dev est une plateforme centrée sur les développeurs qui permet aux utilisateurs de créer, tester et déployer des agents de chat IA avec des capacités avancées. Elle supporte la mémoire de conversation persistante pour que les agents se souviennent des interactions passées, des appels de fonctions dynamiques vers les API externes pour la récupération en temps réel, et la collaboration multi-agents basée sur les rôles. Basée sur les SDKs Python et Node.js, elle inclut des modèles pour une configuration rapide, une architecture de plugins pour l'extensibilité et des tableaux de bord de surveillance pour suivre la performance des agents. AChat.dev assure une gestion des données conforme au RGPD et peut évoluer sur des environnements cloud et sur site.
Vedettes