Outils plugins personnalisés simples et intuitifs

Explorez des solutions plugins personnalisés conviviales, conçues pour simplifier vos projets et améliorer vos performances.

plugins personnalisés

  • Une plateforme d'agents IA légère basée sur le Web permettant aux développeurs de déployer et de personnaliser des bots conversationnels avec des intégrations API.
    0
    0
    Qu'est-ce que Lite Web Agent ?
    Lite Web Agent est une plateforme native au navigateur qui permet aux utilisateurs de créer, configurer et déployer des agents conversationnels pilotés par IA. Elle offre un constructeur de flux visuel, la prise en charge des API REST et WebSocket, la persistance de l'état et des hooks de plugins pour une logique personnalisée. Les agents fonctionnent entièrement côté client pour une faible latence et une confidentialité maximale, tandis que des connecteurs serveur optionnels permettent le stockage des données et un traitement avancé. Idéal pour intégrer des chatbots sur des sites Web, intranets ou applications sans configurations backend complexes.
  • Live intègre un assistant IA conscient du contexte dans n'importe quel site web pour la génération de contenu, le résumé, l'extraction de données et l'automatisation des tâches.
    0
    0
    Qu'est-ce que Live by Vroom AI ?
    Live de Vroom AI est un cadre ouvert et une extension de navigateur qui amène directement des agents IA dans votre expérience de navigation web. En installant Live, vous accédez à une assistant IA dans une barre latérale qui comprend le contexte de la page et effectue des tâches telles que la génération de textes marketing, le résumé d'articles, l'extraction de données structurées, le remplissage automatique des formulaires et la réponse à des questions spécifiques au domaine. Les développeurs peuvent étendre Live avec des plugins personnalisés en utilisant son SDK et intégrer leurs propres modèles LLM ou API tierces pour adapter l'agent à des flux de travail spécifiques.
  • LLMFlow est un framework open-source permettant l'orchestration de flux de travail basés sur LLM avec intégration d'outils et routage flexible.
    0
    0
    Qu'est-ce que LLMFlow ?
    LLMFlow offre un moyen déclaratif de concevoir, tester et déployer des flux de travail complexes de modèles linguistiques. Les développeurs créent des Nœuds qui représentent des invites ou des actions, puis les enchaînent dans des Flux pouvant se ramifier selon des conditions ou des résultats d'outils externes. La gestion de la mémoire intégrée suit le contexte entre les étapes, tandis que les adaptateurs permettent une intégration transparente avec OpenAI, Hugging Face, et d'autres. La fonctionnalité peut être étendue via des plugins pour des outils ou sources de données personnalisés. Exécutez les Flux localement, dans des conteneurs ou en tant que fonctions serverless. Cas d'utilisation : création d'agents conversationnels, génération automatique de rapports, pipelines d'extraction de données — tous avec une exécution transparente et un journalisation.
  • Cadre open-source pour construire des assistants personnels IA avec mémoire sémantique, recherche web basée sur des plugins, outils de fichiers et exécution Python.
    0
    0
    Qu'est-ce que PersonalAI ?
    PersonalAI offre un cadre d’agent complet combinant des intégrations LLM avancées avec une mémoire sémantique persistante et un système de plugins extensible. Les développeurs peuvent configurer des backends de mémoire tels que Redis, SQLite, PostgreSQL ou des magasins vectoriels pour gérer les embeddings et rappeler des conversations passées. Les plugins intégrés supportent des tâches comme la recherche web, la lecture/écriture de fichiers et l’exécution de code Python, tandis qu’une API robuste de plugins permet le développement d’outils personnalisés. L’agent coordonne les requêtes LLM et les invocations d’outils dans un flux de travail dirigé, permettant des réponses contextuelles et des actions automatisées. Utilisez des LLM locaux via Hugging Face ou des services cloud via OpenAI et Azure OpenAI. La conception modulaire de PersonalAI facilite le prototypage rapide d’assistants spécifiques à un domaine, de bots de recherche automatisés ou d’agents de gestion des connaissances qui apprennent et s’adaptent au fil du temps.
  • Un cadre d'agent IA open-source facilitant la coordination de tâches multi-agent avec intégration GPT.
    0
    0
    Qu'est-ce que MCP Crew AI ?
    MCP Crew AI est un cadre axé sur les développeurs qui simplifie la création et la coordination d'agents IA basés sur GPT dans des équipes collaboratives. En définissant des rôles d'agents gestionnaire, travailleur et moniteur, il automatise la délégation, l'exécution et la supervision des tâches. Le package offre une prise en charge intégrée de l'API OpenAI, une architecture modulaire pour les plugins d'agents personnalisés et une CLI pour exécuter et surveiller votre équipe. MCP Crew AI accélère le développement de systèmes multi-agents, facilitant la création de flux de travail évolutifs, transparents et maintenables basés sur l'IA.
  • Melissa est un assistant personnel alimenté par l'IA qui gère des tâches, automatise des flux de travail et répond aux requêtes via une messagerie en langage naturel.
    0
    0
    Qu'est-ce que Melissa ?
    Melissa fonctionne comme un agent IA conversationnel utilisant une compréhension avancée du langage naturel pour interpréter les commandes utilisateur, générer des réponses contextuelles et effectuer des tâches automatisées. Il propose des fonctionnalités telles que la planification des tâches, les rappels de rendez-vous, la recherche de données et l'intégration d'API externes comme Google Calendar, Slack et les services de messagerie. Les utilisateurs peuvent étendre les capacités de Melissa avec des plugins personnalisés, créer des flux de travail pour des processus répétitifs et accéder à sa base de connaissances pour une récupération rapide d'informations. En tant que projet open-source, les développeurs peuvent héberger Melissa sur des serveurs cloud ou locaux, configurer les permissions et personnaliser son comportement pour répondre aux besoins de leur organisation ou de leur usage personnel. C'est une solution flexible pour la productivité, le support client et l'assistance numérique.
  • Une plateforme open-source pour les agents IA permettant la planification automatisée, l'intégration d'outils, la prise de décision et l'orchestration de flux de travail avec les LLM.
    0
    0
    Qu'est-ce que MindForge ?
    MindForge est un cadre d’orchestration robuste conçu pour construire et déployer des agents pilotés par IA avec un minimum de code boilerplate. Il offre une architecture modulaire comprenant un planificateur de tâches, un moteur de raisonnement, un gestionnaire de mémoire et une couche d’exécution d’outils. En exploitant les LLM, les agents peuvent analyser l'entrée utilisateur, élaborer des plans et invoquer des outils externes — comme des APIs de scraping web, des bases de données ou des scripts personnalisés — pour accomplir des tâches complexes. Les composants de mémoire stockent le contexte conversationnel, permettant des interactions multi-tours, tandis que le moteur de décision sélectionne dynamiquement des actions selon des politiques définies. Avec le support de plugins et des pipelines personnalisables, les développeurs peuvent étendre la fonctionnalité pour inclure des outils spécifiques, des intégrations tierces et des bases de connaissances spécifiques au domaine. MindForge simplifie le développement d’agents IA, favorisant le prototypage rapide et le déploiement scalable en production.
  • Camel est un cadre open-source pour l'orchestration d'agents IA qui permet la collaboration multi-agent, l'intégration d'outils et la planification avec des LLM et des graphes de connaissance.
    0
    0
    Qu'est-ce que Camel AI ?
    Camel AI est un cadre open-source conçu pour simplifier la création et l'orchestration d'agents intelligents. Il propose des abstractions pour chaîner de grands modèles de langage, intégrer des outils et APIs externes, gérer des graphes de connaissance et persister la mémoire. Les développeurs peuvent définir des flux de travail multi-agents, décomposer des tâches en sous-plans et surveiller l'exécution via CLI ou interface web. Basé sur Python et Docker, Camel AI permet une permutation transparente des fournisseurs LLM, des plugins d'outils personnalisés et des stratégies de planification hybrides, accélérant le développement d'assistants automatisés, pipelines de données et flux de travail autonomes à grande échelle.
  • Operit est un cadre d'agent AI open source offrant une intégration d'outils dynamique, un raisonnement multi-étapes et une orchestration de compétences personnalisable basée sur des plugins.
    0
    0
    Qu'est-ce que Operit ?
    Operit est un cadre complet d'agent AI open source conçu pour simplifier la création d'agents autonomes pour diverses tâches. En intégrant des LLMs comme GPT d'OpenAI et des modèles locaux, il permet un raisonnement dynamique à travers des flux de travail multi-étapes. Les utilisateurs peuvent définir des plugins personnalisés pour la récupération de données, le scraping web, les requêtes BDD ou l'exécution de code, tandis qu'Operit gère le contexte de session, la mémoire et l'invocation d'outils. Le framework offre une API claire pour construire, tester et déployer des agents avec un état persistant, des pipelines configurables et des mécanismes de gestion des erreurs. Que vous développiez des bots de support client, des assistants de recherche ou des agents d'automatisation d'entreprise, l'architecture extensible d'Operit et ses outils robustes garantissent une prototypage rapide et des déploiements évolutifs.
  • Un cadre Python léger pour orchestrer des agents alimentés par LLM avec intégration d'outils, mémoire et boucles d'action personnalisables.
    0
    0
    Qu'est-ce que Python AI Agent ?
    Python AI Agent fournit une boîte à outils conviviale pour orchestrer des agents autonomes pilotés par de grands modèles linguistiques. Il offre des mécanismes intégrés pour définir des outils et actions personnalisés, maintenir l'historique des conversations avec des modules de mémoire et diffuser des réponses pour des expériences interactives. Les utilisateurs peuvent étendre son architecture plugin pour intégrer des API, des bases de données et des services externes, permettant aux agents de récupérer des données, effectuer des calculs et automatiser des flux de travail. La bibliothèque supporte des pipelines configurables, la gestion des erreurs et la journalisation pour des déploiements robustes. Avec un minimum de boilerplate, les développeurs peuvent créer des chatbots, des assistants virtuels, des analyseurs de données ou des automateurs de tâches exploitant la raisonnement LLM et la prise de décisions à plusieurs étapes. La nature open-source encourage la contribution communautaire et s'adapte à tout environnement Python.
  • Saiki est un framework pour définir, chaîner et surveiller des agents IA autonomes via des configurations YAML simples et des API REST.
    0
    0
    Qu'est-ce que Saiki ?
    Saiki est un framework open-source d’orchestration d’agents qui permet aux développeurs de construire des flux de travail complexes pilotés par IA en écrivant des définitions YAML déclaratives. Chaque agent peut effectuer des tâches, appeler des services externes ou invoquer d’autres agents dans une séquence chaînée. Saiki propose un serveur API REST intégré, un traçage de l’exécution, des logs détaillés et un tableau de bord web pour la surveillance en temps réel. Il supporte les réessais, les bascules et les extensions personnalisées, facilitant l’itération, le débogage et la mise à l’échelle de pipelines d’automatisation robustes.
  • Framework open-source pour déployer des agents IA autonomes sur des fonctions cloud sans serveur pour une automatisation évolutive des flux de travail.
    0
    0
    Qu'est-ce que Serverless AI Agent ?
    Serverless AI Agent simplifie la création et le déploiement d'agents IA autonomes en tirant parti des fonctions cloud sans serveur. En définissant les comportements de l’agent dans des fichiers de configuration simples, les développeurs peuvent activer des flux de travail pilotés par IA qui traitent des entrées en langage naturel, interagissent avec des API, exécutent des requêtes de bases de données et émettent des événements. Le framework abstrait la gestion de l’infrastructure, dimensionne automatiquement les fonctions d'agent en fonction de la demande. Avec une persistance d'état intégrée, des logs et une gestion des erreurs, Serverless AI Agent prend en charge des tâches longues, des travaux planifiés et des automatisations pilotées par des événements. Les développeurs peuvent intégrer des middlewares personnalisés, choisir parmi plusieurs fournisseurs cloud et étendre les capacités de l’agent avec des plugins de surveillance, d’authentification et de stockage des données. Cela permet un prototypage rapide et un déploiement de solutions solides alimentées par l'IA.
  • Cadre open-source pour construire des chatbots IA prêts pour la production avec mémoire personnalisable, recherche vectorielle, dialogue multi-tours et support de plugins.
    0
    0
    Qu'est-ce que Stellar Chat ?
    Stellar Chat permet aux équipes de créer des agents d'IA conversationnelle en fournissant un cadre robuste qui abstrait les interactions LLM, la gestion de la mémoire et l'intégration d'outils. Au cœur, il présente un pipeline extensible qui gère le prétraitement des entrées utilisateur, l'enrichissement du contexte via la récupération de mémoire basée sur des vecteurs, et l'invocation de LLM avec des stratégies de prompting configurables. Les développeurs peuvent utiliser des solutions de stockage vectoriel populaires comme Pinecone, Weaviate ou FAISS, et intégrer des API tierces ou des plugins personnalisés pour des tâches comme la recherche Web, les requêtes à la base de données ou le contrôle d'applications d'entreprise. Avec un support pour la sortie en streaming et des boucles de rétroaction en temps réel, Stellar Chat garantit des expériences utilisateur réactives. Il inclut également des modèles de départ et des exemples de bonnes pratiques pour les bots d'assistance client, la recherche de connaissances et l'automatisation des flux de travail internes. Déployé avec Docker ou Kubernetes, il évolue pour répondre aux exigences de production tout en restant entièrement open-source sous licence MIT.
  • Web-Agent est une bibliothèque d'agents IA basée sur le navigateur qui permet des interactions Web automatisées, le scraping, la navigation et le remplissage de formulaires utilisant des commandes en langage naturel.
    0
    0
    Qu'est-ce que Web-Agent ?
    Web-Agent est une bibliothèque Node.js conçue pour transformer les instructions en langage naturel en opérations du navigateur. Il s'intègre avec des fournisseurs LLM populaires (OpenAI, Anthropic, etc.) et contrôle des navigateurs headless ou affichés pour effectuer des actions telles que scrapper des pages, cliquer sur des boutons, remplir des formulaires, naviguer dans des workflows à plusieurs étapes et exporter les résultats. Les développeurs peuvent définir le comportement de l'agent en code ou JSON, l'étendre via des plugins et chaîner des tâches pour construire des flux d'automatisation complexes. Cela simplifie les tâches web fastidieuses, les tests et la collecte de données en permettant à l'IA de les interpréter et de les exécuter.
  • Une plateforme d'agents IA automatisant les flux de travail en sciences des données en générant du code, en interrogeant des bases de données et en visualisant les données de manière transparente.
    0
    0
    Qu'est-ce que Cognify ?
    Cognify permet aux utilisateurs de définir leurs objectifs en science des données et de laisser les agents IA gérer la partie difficile. Les agents peuvent écrire et déboguer du code, se connecter à des bases de données pour obtenir des insights, produire des visualisations interactives et même exporter des rapports. Grâce à une architecture de plugins, les utilisateurs peuvent étendre la fonctionnalité aux API personnalisées, aux systèmes de planification et aux services cloud. Cognify offre la reproductibilité, des fonctionnalités de collaboration et un journal de bord pour suivre les décisions et sorties des agents, le rendant adapté au prototypage rapide et aux flux de travail en production.
  • Un framework Python open-source pour créer des chatbots Discord alimentés par l'IA avec support LLM, intégration de plugins et gestion de la mémoire.
    0
    0
    Qu'est-ce que Discord AI Agent ?
    L'Agent IA Discord utilise l'API Discord et les LLM compatibles avec OpenAI pour transformer tout serveur en un environnement de chat interactif alimenté par l'IA. Les développeurs peuvent enregistrer des plugins personnalisés pour gérer les commandes slash, les événements de message ou les tâches planifiées, tandis que le stockage mémoire intégré conserve le contexte de la conversation pour des dialogues cohérents à plusieurs tours. Le framework supporte l'exécution asynchrone, la sélection configurée de modèles, les modèles de prompts et la journalisation pour le débogage. En modifiant un seul fichier de configuration YAML ou JSON, vous pouvez définir des clés API, des préférences de modèles, des préfixes de commandes et des répertoires de plugins. Son architecture extensible permet d'ajouter des fonctionnalités spécialisées telles que la modération, les jeux trivia ou les bots d'assistance client. Qu'il fonctionne localement ou déployé sur des plateformes cloud, l'Agent IA Discord simplifie le processus de création d'agents IA flexibles et faciles à entretenir pour l'engagement communautaire.
  • Hyperbolic Time Chamber permet aux développeurs de créer des agents IA modulaires avec une gestion avancée de la mémoire, une chaînée de prompts et une intégration d'outils personnalisés.
    0
    0
    Qu'est-ce que Hyperbolic Time Chamber ?
    Hyperbolic Time Chamber fournit un environnement flexible pour construire des agents IA en proposant des composants pour la gestion de la mémoire, l'orchestration de la fenêtre contextuelle, la chaînée de prompts, l'intégration d'outils et le contrôle d'exécution. Les développeurs définissent le comportement des agents via des blocs modulaires, configurent des mémoires personnalisées (courte et longue durée) et connectent des API externes ou des outils locaux. Le framework inclut le support asynchrone, la journalisation et des utilitaires de débogage, permettant une itération rapide et un déploiement d'agents conversationnels ou axés sur les tâches sophistiqués dans des projets Python.
  • Une plateforme basée sur Java permettant le développement, la simulation et le déploiement de systèmes multi-agents intelligents avec des capacités de communication, de négociation et d'apprentissage.
    0
    0
    Qu'est-ce que IntelligentMASPlatform ?
    L'IntelligentMASPlatform est conçue pour accélérer le développement et le déploiement de systèmes multi-agents en proposant une architecture modulaire avec des couches séparées pour les agents, l'environnement et les services. Les agents communiquent en utilisant la messagerie ACL conforme à FIPA, permettant une négociation et une coordination dynamiques. La plateforme inclut un simulateur d'environnement polyvalent qui permet aux développeurs de modéliser des scénarios complexes, de planifier des tâches d'agents et de visualiser les interactions en temps réel via un tableau de bord intégré. Pour des comportements avancés, elle intègre des modules d'apprentissage par renforcement et supporte des plugins de comportements personnalisés. Les outils de déploiement permettent d'emballer les agents en applications autonomes ou en réseaux distribués. De plus, l'API de la plateforme facilite l'intégration avec des bases de données, des appareils IoT ou des services IA tiers, la rendant adaptée à la recherche, à l'automatisation industrielle et aux cas d'utilisation en villes intelligentes.
  • Une plateforme d'agent IA open-source permettant la planification modulaire, la gestion de la mémoire et l'intégration d'outils pour des workflows automatisés et à plusieurs étapes.
    0
    0
    Qu'est-ce que Pillar ?
    Pillar est un framework d'agents IA complet conçu pour simplifier le développement et le déploiement de workflows intelligents à plusieurs étapes. Il dispose d'une architecture modulaire avec des planificateurs pour la décomposition des tâches, des stockages de mémoire pour la rétention de contexte et des exécutants qui réalisent des actions via des API externes ou du code personnalisé. Les développeurs peuvent définir des pipelines d'agents en YAML ou JSON, intégrer n'importe quel fournisseur LLM et étendre la fonctionnalité via des plugins personnalisés. Pillar gère l'exécution asynchrone et la gestion du contexte en standard, réduisant le code boilerplate et accélérant la mise sur le marché d'applications basées sur l'IA telles que les chatbots, les assistants d'analyse de données et l'automatisation des processus métier.
  • PrisimAI vous permet de concevoir, tester et déployer visuellement des agents IA en intégrant LLMs, API et mémoire sur une plateforme unique.
    0
    0
    Qu'est-ce que PrisimAI ?
    PrisimAI offre un environnement basé sur le navigateur où les utilisateurs peuvent rapidement prototyper et déployer des agents intelligents. Grâce à un créateur de flux visuel, vous pouvez assembler des composants alimentés par LLM, intégrer des API externes, gérer la mémoire à long terme et orchestrer des tâches multi-étapes. Le débogage et la surveillance intégrés simplifient les tests et itérations, tandis qu’une place de marché de plugins permet une extension avec des outils personnalisés. PrisimAI supporte la collaboration entre équipes, le contrôle de version des conceptions d’agents, et le déploiement en un clic pour des webhooks, widgets de chat ou services autonomes.
Vedettes