Outils 自訂插件 simples et intuitifs

Explorez des solutions 自訂插件 conviviales, conçues pour simplifier vos projets et améliorer vos performances.

自訂插件

  • Esquilax est un framework TypeScript pour orchestrer des workflows d'IA multi-agent, gérer la mémoire, le contexte et les intégrations de plugins.
    0
    0
    Qu'est-ce que Esquilax ?
    Esquilax est un framework léger en TypeScript conçu pour construire et orchestrer des workflows complexes d'agents d'IA. Il fournit une API claire permettant aux développeurs de définir déclarativement des agents, d'assigner des modules de mémoire et d'intégrer des actions plugins telles que des appels API ou des requêtes en base de données. Avec un support intégré pour la gestion du contexte et la coordination multi-agent, Esquilax simplifie la création de chatbots, d'assistants numériques et de processus automatisés. Son architecture basée sur des événements permet de chaîner ou de déclencher dynamiquement des tâches, tandis que les outils de journalisation et de débogage offrent une visibilité complète sur les interactions des agents. En abstraction du code répétitif, Esquilax aide les équipes à prototyper rapidement des applications IA évolutives.
  • Une plateforme d'agents IA légère basée sur le Web permettant aux développeurs de déployer et de personnaliser des bots conversationnels avec des intégrations API.
    0
    0
    Qu'est-ce que Lite Web Agent ?
    Lite Web Agent est une plateforme native au navigateur qui permet aux utilisateurs de créer, configurer et déployer des agents conversationnels pilotés par IA. Elle offre un constructeur de flux visuel, la prise en charge des API REST et WebSocket, la persistance de l'état et des hooks de plugins pour une logique personnalisée. Les agents fonctionnent entièrement côté client pour une faible latence et une confidentialité maximale, tandis que des connecteurs serveur optionnels permettent le stockage des données et un traitement avancé. Idéal pour intégrer des chatbots sur des sites Web, intranets ou applications sans configurations backend complexes.
  • Live intègre un assistant IA conscient du contexte dans n'importe quel site web pour la génération de contenu, le résumé, l'extraction de données et l'automatisation des tâches.
    0
    0
    Qu'est-ce que Live by Vroom AI ?
    Live de Vroom AI est un cadre ouvert et une extension de navigateur qui amène directement des agents IA dans votre expérience de navigation web. En installant Live, vous accédez à une assistant IA dans une barre latérale qui comprend le contexte de la page et effectue des tâches telles que la génération de textes marketing, le résumé d'articles, l'extraction de données structurées, le remplissage automatique des formulaires et la réponse à des questions spécifiques au domaine. Les développeurs peuvent étendre Live avec des plugins personnalisés en utilisant son SDK et intégrer leurs propres modèles LLM ou API tierces pour adapter l'agent à des flux de travail spécifiques.
  • LLMFlow est un framework open-source permettant l'orchestration de flux de travail basés sur LLM avec intégration d'outils et routage flexible.
    0
    0
    Qu'est-ce que LLMFlow ?
    LLMFlow offre un moyen déclaratif de concevoir, tester et déployer des flux de travail complexes de modèles linguistiques. Les développeurs créent des Nœuds qui représentent des invites ou des actions, puis les enchaînent dans des Flux pouvant se ramifier selon des conditions ou des résultats d'outils externes. La gestion de la mémoire intégrée suit le contexte entre les étapes, tandis que les adaptateurs permettent une intégration transparente avec OpenAI, Hugging Face, et d'autres. La fonctionnalité peut être étendue via des plugins pour des outils ou sources de données personnalisés. Exécutez les Flux localement, dans des conteneurs ou en tant que fonctions serverless. Cas d'utilisation : création d'agents conversationnels, génération automatique de rapports, pipelines d'extraction de données — tous avec une exécution transparente et un journalisation.
  • Melissa est un assistant personnel alimenté par l'IA qui gère des tâches, automatise des flux de travail et répond aux requêtes via une messagerie en langage naturel.
    0
    0
    Qu'est-ce que Melissa ?
    Melissa fonctionne comme un agent IA conversationnel utilisant une compréhension avancée du langage naturel pour interpréter les commandes utilisateur, générer des réponses contextuelles et effectuer des tâches automatisées. Il propose des fonctionnalités telles que la planification des tâches, les rappels de rendez-vous, la recherche de données et l'intégration d'API externes comme Google Calendar, Slack et les services de messagerie. Les utilisateurs peuvent étendre les capacités de Melissa avec des plugins personnalisés, créer des flux de travail pour des processus répétitifs et accéder à sa base de connaissances pour une récupération rapide d'informations. En tant que projet open-source, les développeurs peuvent héberger Melissa sur des serveurs cloud ou locaux, configurer les permissions et personnaliser son comportement pour répondre aux besoins de leur organisation ou de leur usage personnel. C'est une solution flexible pour la productivité, le support client et l'assistance numérique.
  • Une plateforme open-source pour les agents IA permettant la planification automatisée, l'intégration d'outils, la prise de décision et l'orchestration de flux de travail avec les LLM.
    0
    0
    Qu'est-ce que MindForge ?
    MindForge est un cadre d’orchestration robuste conçu pour construire et déployer des agents pilotés par IA avec un minimum de code boilerplate. Il offre une architecture modulaire comprenant un planificateur de tâches, un moteur de raisonnement, un gestionnaire de mémoire et une couche d’exécution d’outils. En exploitant les LLM, les agents peuvent analyser l'entrée utilisateur, élaborer des plans et invoquer des outils externes — comme des APIs de scraping web, des bases de données ou des scripts personnalisés — pour accomplir des tâches complexes. Les composants de mémoire stockent le contexte conversationnel, permettant des interactions multi-tours, tandis que le moteur de décision sélectionne dynamiquement des actions selon des politiques définies. Avec le support de plugins et des pipelines personnalisables, les développeurs peuvent étendre la fonctionnalité pour inclure des outils spécifiques, des intégrations tierces et des bases de connaissances spécifiques au domaine. MindForge simplifie le développement d’agents IA, favorisant le prototypage rapide et le déploiement scalable en production.
  • Un cadre Python léger pour orchestrer des agents alimentés par LLM avec intégration d'outils, mémoire et boucles d'action personnalisables.
    0
    0
    Qu'est-ce que Python AI Agent ?
    Python AI Agent fournit une boîte à outils conviviale pour orchestrer des agents autonomes pilotés par de grands modèles linguistiques. Il offre des mécanismes intégrés pour définir des outils et actions personnalisés, maintenir l'historique des conversations avec des modules de mémoire et diffuser des réponses pour des expériences interactives. Les utilisateurs peuvent étendre son architecture plugin pour intégrer des API, des bases de données et des services externes, permettant aux agents de récupérer des données, effectuer des calculs et automatiser des flux de travail. La bibliothèque supporte des pipelines configurables, la gestion des erreurs et la journalisation pour des déploiements robustes. Avec un minimum de boilerplate, les développeurs peuvent créer des chatbots, des assistants virtuels, des analyseurs de données ou des automateurs de tâches exploitant la raisonnement LLM et la prise de décisions à plusieurs étapes. La nature open-source encourage la contribution communautaire et s'adapte à tout environnement Python.
  • Saiki est un framework pour définir, chaîner et surveiller des agents IA autonomes via des configurations YAML simples et des API REST.
    0
    0
    Qu'est-ce que Saiki ?
    Saiki est un framework open-source d’orchestration d’agents qui permet aux développeurs de construire des flux de travail complexes pilotés par IA en écrivant des définitions YAML déclaratives. Chaque agent peut effectuer des tâches, appeler des services externes ou invoquer d’autres agents dans une séquence chaînée. Saiki propose un serveur API REST intégré, un traçage de l’exécution, des logs détaillés et un tableau de bord web pour la surveillance en temps réel. Il supporte les réessais, les bascules et les extensions personnalisées, facilitant l’itération, le débogage et la mise à l’échelle de pipelines d’automatisation robustes.
  • Framework open-source pour déployer des agents IA autonomes sur des fonctions cloud sans serveur pour une automatisation évolutive des flux de travail.
    0
    0
    Qu'est-ce que Serverless AI Agent ?
    Serverless AI Agent simplifie la création et le déploiement d'agents IA autonomes en tirant parti des fonctions cloud sans serveur. En définissant les comportements de l’agent dans des fichiers de configuration simples, les développeurs peuvent activer des flux de travail pilotés par IA qui traitent des entrées en langage naturel, interagissent avec des API, exécutent des requêtes de bases de données et émettent des événements. Le framework abstrait la gestion de l’infrastructure, dimensionne automatiquement les fonctions d'agent en fonction de la demande. Avec une persistance d'état intégrée, des logs et une gestion des erreurs, Serverless AI Agent prend en charge des tâches longues, des travaux planifiés et des automatisations pilotées par des événements. Les développeurs peuvent intégrer des middlewares personnalisés, choisir parmi plusieurs fournisseurs cloud et étendre les capacités de l’agent avec des plugins de surveillance, d’authentification et de stockage des données. Cela permet un prototypage rapide et un déploiement de solutions solides alimentées par l'IA.
  • Web-Agent est une bibliothèque d'agents IA basée sur le navigateur qui permet des interactions Web automatisées, le scraping, la navigation et le remplissage de formulaires utilisant des commandes en langage naturel.
    0
    0
    Qu'est-ce que Web-Agent ?
    Web-Agent est une bibliothèque Node.js conçue pour transformer les instructions en langage naturel en opérations du navigateur. Il s'intègre avec des fournisseurs LLM populaires (OpenAI, Anthropic, etc.) et contrôle des navigateurs headless ou affichés pour effectuer des actions telles que scrapper des pages, cliquer sur des boutons, remplir des formulaires, naviguer dans des workflows à plusieurs étapes et exporter les résultats. Les développeurs peuvent définir le comportement de l'agent en code ou JSON, l'étendre via des plugins et chaîner des tâches pour construire des flux d'automatisation complexes. Cela simplifie les tâches web fastidieuses, les tests et la collecte de données en permettant à l'IA de les interpréter et de les exécuter.
  • Une plateforme d'agents IA automatisant les flux de travail en sciences des données en générant du code, en interrogeant des bases de données et en visualisant les données de manière transparente.
    0
    0
    Qu'est-ce que Cognify ?
    Cognify permet aux utilisateurs de définir leurs objectifs en science des données et de laisser les agents IA gérer la partie difficile. Les agents peuvent écrire et déboguer du code, se connecter à des bases de données pour obtenir des insights, produire des visualisations interactives et même exporter des rapports. Grâce à une architecture de plugins, les utilisateurs peuvent étendre la fonctionnalité aux API personnalisées, aux systèmes de planification et aux services cloud. Cognify offre la reproductibilité, des fonctionnalités de collaboration et un journal de bord pour suivre les décisions et sorties des agents, le rendant adapté au prototypage rapide et aux flux de travail en production.
  • Une plateforme d'agent IA open-source permettant la planification modulaire, la gestion de la mémoire et l'intégration d'outils pour des workflows automatisés et à plusieurs étapes.
    0
    0
    Qu'est-ce que Pillar ?
    Pillar est un framework d'agents IA complet conçu pour simplifier le développement et le déploiement de workflows intelligents à plusieurs étapes. Il dispose d'une architecture modulaire avec des planificateurs pour la décomposition des tâches, des stockages de mémoire pour la rétention de contexte et des exécutants qui réalisent des actions via des API externes ou du code personnalisé. Les développeurs peuvent définir des pipelines d'agents en YAML ou JSON, intégrer n'importe quel fournisseur LLM et étendre la fonctionnalité via des plugins personnalisés. Pillar gère l'exécution asynchrone et la gestion du contexte en standard, réduisant le code boilerplate et accélérant la mise sur le marché d'applications basées sur l'IA telles que les chatbots, les assistants d'analyse de données et l'automatisation des processus métier.
  • PrisimAI vous permet de concevoir, tester et déployer visuellement des agents IA en intégrant LLMs, API et mémoire sur une plateforme unique.
    0
    0
    Qu'est-ce que PrisimAI ?
    PrisimAI offre un environnement basé sur le navigateur où les utilisateurs peuvent rapidement prototyper et déployer des agents intelligents. Grâce à un créateur de flux visuel, vous pouvez assembler des composants alimentés par LLM, intégrer des API externes, gérer la mémoire à long terme et orchestrer des tâches multi-étapes. Le débogage et la surveillance intégrés simplifient les tests et itérations, tandis qu’une place de marché de plugins permet une extension avec des outils personnalisés. PrisimAI supporte la collaboration entre équipes, le contrôle de version des conceptions d’agents, et le déploiement en un clic pour des webhooks, widgets de chat ou services autonomes.
  • Un framework TypeScript pour la création et la personnalisation d'agents AI LangChain avec intégration d'outils et gestion de mémoire.
    0
    0
    Qu'est-ce que Agents from Scratch TS ?
    Agents from Scratch TS est un framework open-source en TypeScript qui démontre comment construire des agents AI à partir de zéro en utilisant LangChain. Il inclut des exemples de code pour définir et enregistrer des outils externes, gérer la mémoire conversationnelle, router les entrées utilisateur vers le bon agent et chaîner plusieurs appels LLM. Les développeurs peuvent l'utiliser pour comprendre les meilleures pratiques, personnaliser le comportement des agents et intégrer de nouvelles capacités telles que la recherche web, la récupération de données ou des plugins personnalisés pour automatiser des tâches ou créer des assistants interactifs.
  • Aladin est un framework open-source pour agents LLM autonomes permettant l'automatisation des flux de travail, la prise de décision basée sur la mémoire et l'orchestration de tâches via des plugins.
    0
    0
    Qu'est-ce que Aladin ?
    Aladin propose une architecture modulaire permettant aux développeurs de définir des agents autonomes propulsés par de grands modèles de langage (LLMs). Chaque agent peut charger des backends mémoire (ex. SQLite, en mémoire), utiliser des modèles de prompts dynamiques et intégrer des plugins personnalisés pour des appels API externes ou l'exécution de commandes locales. Il possède un planificateur de tâches qui décompose des objectifs de haut niveau en actions séquencées, les exécutant dans l'ordre et les réitérant basés sur le feedback de l'LLM. La configuration est gérée via des fichiers YAML et des variables d'environnement, l'adaptant à divers cas d'usage. Les utilisateurs peuvent déployer Aladin via Docker Compose ou pip. Les interfaces CLI et HTTP basées sur FastAPI permettent de lancer des agents, surveiller leur exécution et inspecter l'état de la mémoire, facilitant l'intégration avec des pipelines CI/CD, interfaces de chat ou dashboards personnalisés.
  • Un cadre d'agent IA autonome basé sur Python offrant mémoire, raisonnement et intégration d'outils pour l'automatisation de tâches multi-étapes.
    0
    0
    Qu'est-ce que CereBro ?
    CereBro propose une architecture modulaire pour créer des agents IA capables de décomposer les tâches de manière autonome, de maintenir une mémoire persistante et d'utiliser des outils de manière dynamique. Il comprend un noyau Brain pour gérer pensées, actions et mémoire, supporte des plugins personnalisés pour des API externes et offre une interface CLI pour l'orchestration. Les utilisateurs peuvent définir des objectifs d'agent, configurer des stratégies de raisonnement et intégrer des fonctions telles que la recherche Web, la manipulation de fichiers ou des outils spécifiques au domaine pour exécuter les tâches de bout en bout sans intervention manuelle.
  • ClassiCore-Public automatise la classification ML, offrant le prétraitement des données, la sélection de modèles, la réglage des hyperparamètres et le déploiement d'API évolutives.
    0
    0
    Qu'est-ce que ClassiCore-Public ?
    ClassiCore-Public fournit un environnement complet pour construire, optimiser et déployer des modèles de classification. Il dispose d'un créateur de pipelines intuitif qui gère l'ingestion de données brutes, le nettoyage et l'ingénierie des fonctionnalités. Le zoo de modèles intégré comprend des algorithmes tels que Forêts Aléatoires, SVMs et architectures de Deep Learning. L'optimisation automatisée des hyperparamètres utilise la recherche bayésienne pour trouver les réglages optimaux. Les modèles entraînés peuvent être déployés en tant qu'API RESTful ou microservices, avec des tableaux de bord de surveillance qui suivent les performances en temps réel. Les plugins extensibles permettent aux développeurs d'ajouter des prétraitements, visualisations ou de nouvelles cibles de déploiement, faisant de ClassiCore-Public une solution idéale pour les tâches de classification à l'échelle industrielle.
Vedettes