Outils custom plugins simples et intuitifs

Explorez des solutions custom plugins conviviales, conçues pour simplifier vos projets et améliorer vos performances.

custom plugins

  • ClassiCore-Public automatise la classification ML, offrant le prétraitement des données, la sélection de modèles, la réglage des hyperparamètres et le déploiement d'API évolutives.
    0
    0
    Qu'est-ce que ClassiCore-Public ?
    ClassiCore-Public fournit un environnement complet pour construire, optimiser et déployer des modèles de classification. Il dispose d'un créateur de pipelines intuitif qui gère l'ingestion de données brutes, le nettoyage et l'ingénierie des fonctionnalités. Le zoo de modèles intégré comprend des algorithmes tels que Forêts Aléatoires, SVMs et architectures de Deep Learning. L'optimisation automatisée des hyperparamètres utilise la recherche bayésienne pour trouver les réglages optimaux. Les modèles entraînés peuvent être déployés en tant qu'API RESTful ou microservices, avec des tableaux de bord de surveillance qui suivent les performances en temps réel. Les plugins extensibles permettent aux développeurs d'ajouter des prétraitements, visualisations ou de nouvelles cibles de déploiement, faisant de ClassiCore-Public une solution idéale pour les tâches de classification à l'échelle industrielle.
  • Esquilax est un framework TypeScript pour orchestrer des workflows d'IA multi-agent, gérer la mémoire, le contexte et les intégrations de plugins.
    0
    0
    Qu'est-ce que Esquilax ?
    Esquilax est un framework léger en TypeScript conçu pour construire et orchestrer des workflows complexes d'agents d'IA. Il fournit une API claire permettant aux développeurs de définir déclarativement des agents, d'assigner des modules de mémoire et d'intégrer des actions plugins telles que des appels API ou des requêtes en base de données. Avec un support intégré pour la gestion du contexte et la coordination multi-agent, Esquilax simplifie la création de chatbots, d'assistants numériques et de processus automatisés. Son architecture basée sur des événements permet de chaîner ou de déclencher dynamiquement des tâches, tandis que les outils de journalisation et de débogage offrent une visibilité complète sur les interactions des agents. En abstraction du code répétitif, Esquilax aide les équipes à prototyper rapidement des applications IA évolutives.
  • Une plateforme d'agents IA légère basée sur le Web permettant aux développeurs de déployer et de personnaliser des bots conversationnels avec des intégrations API.
    0
    0
    Qu'est-ce que Lite Web Agent ?
    Lite Web Agent est une plateforme native au navigateur qui permet aux utilisateurs de créer, configurer et déployer des agents conversationnels pilotés par IA. Elle offre un constructeur de flux visuel, la prise en charge des API REST et WebSocket, la persistance de l'état et des hooks de plugins pour une logique personnalisée. Les agents fonctionnent entièrement côté client pour une faible latence et une confidentialité maximale, tandis que des connecteurs serveur optionnels permettent le stockage des données et un traitement avancé. Idéal pour intégrer des chatbots sur des sites Web, intranets ou applications sans configurations backend complexes.
  • Live intègre un assistant IA conscient du contexte dans n'importe quel site web pour la génération de contenu, le résumé, l'extraction de données et l'automatisation des tâches.
    0
    0
    Qu'est-ce que Live by Vroom AI ?
    Live de Vroom AI est un cadre ouvert et une extension de navigateur qui amène directement des agents IA dans votre expérience de navigation web. En installant Live, vous accédez à une assistant IA dans une barre latérale qui comprend le contexte de la page et effectue des tâches telles que la génération de textes marketing, le résumé d'articles, l'extraction de données structurées, le remplissage automatique des formulaires et la réponse à des questions spécifiques au domaine. Les développeurs peuvent étendre Live avec des plugins personnalisés en utilisant son SDK et intégrer leurs propres modèles LLM ou API tierces pour adapter l'agent à des flux de travail spécifiques.
  • LLMFlow est un framework open-source permettant l'orchestration de flux de travail basés sur LLM avec intégration d'outils et routage flexible.
    0
    0
    Qu'est-ce que LLMFlow ?
    LLMFlow offre un moyen déclaratif de concevoir, tester et déployer des flux de travail complexes de modèles linguistiques. Les développeurs créent des Nœuds qui représentent des invites ou des actions, puis les enchaînent dans des Flux pouvant se ramifier selon des conditions ou des résultats d'outils externes. La gestion de la mémoire intégrée suit le contexte entre les étapes, tandis que les adaptateurs permettent une intégration transparente avec OpenAI, Hugging Face, et d'autres. La fonctionnalité peut être étendue via des plugins pour des outils ou sources de données personnalisés. Exécutez les Flux localement, dans des conteneurs ou en tant que fonctions serverless. Cas d'utilisation : création d'agents conversationnels, génération automatique de rapports, pipelines d'extraction de données — tous avec une exécution transparente et un journalisation.
  • Cadre open-source pour construire des assistants personnels IA avec mémoire sémantique, recherche web basée sur des plugins, outils de fichiers et exécution Python.
    0
    0
    Qu'est-ce que PersonalAI ?
    PersonalAI offre un cadre d’agent complet combinant des intégrations LLM avancées avec une mémoire sémantique persistante et un système de plugins extensible. Les développeurs peuvent configurer des backends de mémoire tels que Redis, SQLite, PostgreSQL ou des magasins vectoriels pour gérer les embeddings et rappeler des conversations passées. Les plugins intégrés supportent des tâches comme la recherche web, la lecture/écriture de fichiers et l’exécution de code Python, tandis qu’une API robuste de plugins permet le développement d’outils personnalisés. L’agent coordonne les requêtes LLM et les invocations d’outils dans un flux de travail dirigé, permettant des réponses contextuelles et des actions automatisées. Utilisez des LLM locaux via Hugging Face ou des services cloud via OpenAI et Azure OpenAI. La conception modulaire de PersonalAI facilite le prototypage rapide d’assistants spécifiques à un domaine, de bots de recherche automatisés ou d’agents de gestion des connaissances qui apprennent et s’adaptent au fil du temps.
  • Un cadre d'agent IA open-source facilitant la coordination de tâches multi-agent avec intégration GPT.
    0
    0
    Qu'est-ce que MCP Crew AI ?
    MCP Crew AI est un cadre axé sur les développeurs qui simplifie la création et la coordination d'agents IA basés sur GPT dans des équipes collaboratives. En définissant des rôles d'agents gestionnaire, travailleur et moniteur, il automatise la délégation, l'exécution et la supervision des tâches. Le package offre une prise en charge intégrée de l'API OpenAI, une architecture modulaire pour les plugins d'agents personnalisés et une CLI pour exécuter et surveiller votre équipe. MCP Crew AI accélère le développement de systèmes multi-agents, facilitant la création de flux de travail évolutifs, transparents et maintenables basés sur l'IA.
  • Melissa est un assistant personnel alimenté par l'IA qui gère des tâches, automatise des flux de travail et répond aux requêtes via une messagerie en langage naturel.
    0
    0
    Qu'est-ce que Melissa ?
    Melissa fonctionne comme un agent IA conversationnel utilisant une compréhension avancée du langage naturel pour interpréter les commandes utilisateur, générer des réponses contextuelles et effectuer des tâches automatisées. Il propose des fonctionnalités telles que la planification des tâches, les rappels de rendez-vous, la recherche de données et l'intégration d'API externes comme Google Calendar, Slack et les services de messagerie. Les utilisateurs peuvent étendre les capacités de Melissa avec des plugins personnalisés, créer des flux de travail pour des processus répétitifs et accéder à sa base de connaissances pour une récupération rapide d'informations. En tant que projet open-source, les développeurs peuvent héberger Melissa sur des serveurs cloud ou locaux, configurer les permissions et personnaliser son comportement pour répondre aux besoins de leur organisation ou de leur usage personnel. C'est une solution flexible pour la productivité, le support client et l'assistance numérique.
  • Une plateforme open-source pour les agents IA permettant la planification automatisée, l'intégration d'outils, la prise de décision et l'orchestration de flux de travail avec les LLM.
    0
    0
    Qu'est-ce que MindForge ?
    MindForge est un cadre d’orchestration robuste conçu pour construire et déployer des agents pilotés par IA avec un minimum de code boilerplate. Il offre une architecture modulaire comprenant un planificateur de tâches, un moteur de raisonnement, un gestionnaire de mémoire et une couche d’exécution d’outils. En exploitant les LLM, les agents peuvent analyser l'entrée utilisateur, élaborer des plans et invoquer des outils externes — comme des APIs de scraping web, des bases de données ou des scripts personnalisés — pour accomplir des tâches complexes. Les composants de mémoire stockent le contexte conversationnel, permettant des interactions multi-tours, tandis que le moteur de décision sélectionne dynamiquement des actions selon des politiques définies. Avec le support de plugins et des pipelines personnalisables, les développeurs peuvent étendre la fonctionnalité pour inclure des outils spécifiques, des intégrations tierces et des bases de connaissances spécifiques au domaine. MindForge simplifie le développement d’agents IA, favorisant le prototypage rapide et le déploiement scalable en production.
  • Camel est un cadre open-source pour l'orchestration d'agents IA qui permet la collaboration multi-agent, l'intégration d'outils et la planification avec des LLM et des graphes de connaissance.
    0
    0
    Qu'est-ce que Camel AI ?
    Camel AI est un cadre open-source conçu pour simplifier la création et l'orchestration d'agents intelligents. Il propose des abstractions pour chaîner de grands modèles de langage, intégrer des outils et APIs externes, gérer des graphes de connaissance et persister la mémoire. Les développeurs peuvent définir des flux de travail multi-agents, décomposer des tâches en sous-plans et surveiller l'exécution via CLI ou interface web. Basé sur Python et Docker, Camel AI permet une permutation transparente des fournisseurs LLM, des plugins d'outils personnalisés et des stratégies de planification hybrides, accélérant le développement d'assistants automatisés, pipelines de données et flux de travail autonomes à grande échelle.
  • Operit est un cadre d'agent AI open source offrant une intégration d'outils dynamique, un raisonnement multi-étapes et une orchestration de compétences personnalisable basée sur des plugins.
    0
    0
    Qu'est-ce que Operit ?
    Operit est un cadre complet d'agent AI open source conçu pour simplifier la création d'agents autonomes pour diverses tâches. En intégrant des LLMs comme GPT d'OpenAI et des modèles locaux, il permet un raisonnement dynamique à travers des flux de travail multi-étapes. Les utilisateurs peuvent définir des plugins personnalisés pour la récupération de données, le scraping web, les requêtes BDD ou l'exécution de code, tandis qu'Operit gère le contexte de session, la mémoire et l'invocation d'outils. Le framework offre une API claire pour construire, tester et déployer des agents avec un état persistant, des pipelines configurables et des mécanismes de gestion des erreurs. Que vous développiez des bots de support client, des assistants de recherche ou des agents d'automatisation d'entreprise, l'architecture extensible d'Operit et ses outils robustes garantissent une prototypage rapide et des déploiements évolutifs.
  • Un cadre Python léger pour orchestrer des agents alimentés par LLM avec intégration d'outils, mémoire et boucles d'action personnalisables.
    0
    0
    Qu'est-ce que Python AI Agent ?
    Python AI Agent fournit une boîte à outils conviviale pour orchestrer des agents autonomes pilotés par de grands modèles linguistiques. Il offre des mécanismes intégrés pour définir des outils et actions personnalisés, maintenir l'historique des conversations avec des modules de mémoire et diffuser des réponses pour des expériences interactives. Les utilisateurs peuvent étendre son architecture plugin pour intégrer des API, des bases de données et des services externes, permettant aux agents de récupérer des données, effectuer des calculs et automatiser des flux de travail. La bibliothèque supporte des pipelines configurables, la gestion des erreurs et la journalisation pour des déploiements robustes. Avec un minimum de boilerplate, les développeurs peuvent créer des chatbots, des assistants virtuels, des analyseurs de données ou des automateurs de tâches exploitant la raisonnement LLM et la prise de décisions à plusieurs étapes. La nature open-source encourage la contribution communautaire et s'adapte à tout environnement Python.
  • Saiki est un framework pour définir, chaîner et surveiller des agents IA autonomes via des configurations YAML simples et des API REST.
    0
    0
    Qu'est-ce que Saiki ?
    Saiki est un framework open-source d’orchestration d’agents qui permet aux développeurs de construire des flux de travail complexes pilotés par IA en écrivant des définitions YAML déclaratives. Chaque agent peut effectuer des tâches, appeler des services externes ou invoquer d’autres agents dans une séquence chaînée. Saiki propose un serveur API REST intégré, un traçage de l’exécution, des logs détaillés et un tableau de bord web pour la surveillance en temps réel. Il supporte les réessais, les bascules et les extensions personnalisées, facilitant l’itération, le débogage et la mise à l’échelle de pipelines d’automatisation robustes.
  • Framework open-source pour déployer des agents IA autonomes sur des fonctions cloud sans serveur pour une automatisation évolutive des flux de travail.
    0
    0
    Qu'est-ce que Serverless AI Agent ?
    Serverless AI Agent simplifie la création et le déploiement d'agents IA autonomes en tirant parti des fonctions cloud sans serveur. En définissant les comportements de l’agent dans des fichiers de configuration simples, les développeurs peuvent activer des flux de travail pilotés par IA qui traitent des entrées en langage naturel, interagissent avec des API, exécutent des requêtes de bases de données et émettent des événements. Le framework abstrait la gestion de l’infrastructure, dimensionne automatiquement les fonctions d'agent en fonction de la demande. Avec une persistance d'état intégrée, des logs et une gestion des erreurs, Serverless AI Agent prend en charge des tâches longues, des travaux planifiés et des automatisations pilotées par des événements. Les développeurs peuvent intégrer des middlewares personnalisés, choisir parmi plusieurs fournisseurs cloud et étendre les capacités de l’agent avec des plugins de surveillance, d’authentification et de stockage des données. Cela permet un prototypage rapide et un déploiement de solutions solides alimentées par l'IA.
  • Cadre open-source pour construire des chatbots IA prêts pour la production avec mémoire personnalisable, recherche vectorielle, dialogue multi-tours et support de plugins.
    0
    0
    Qu'est-ce que Stellar Chat ?
    Stellar Chat permet aux équipes de créer des agents d'IA conversationnelle en fournissant un cadre robuste qui abstrait les interactions LLM, la gestion de la mémoire et l'intégration d'outils. Au cœur, il présente un pipeline extensible qui gère le prétraitement des entrées utilisateur, l'enrichissement du contexte via la récupération de mémoire basée sur des vecteurs, et l'invocation de LLM avec des stratégies de prompting configurables. Les développeurs peuvent utiliser des solutions de stockage vectoriel populaires comme Pinecone, Weaviate ou FAISS, et intégrer des API tierces ou des plugins personnalisés pour des tâches comme la recherche Web, les requêtes à la base de données ou le contrôle d'applications d'entreprise. Avec un support pour la sortie en streaming et des boucles de rétroaction en temps réel, Stellar Chat garantit des expériences utilisateur réactives. Il inclut également des modèles de départ et des exemples de bonnes pratiques pour les bots d'assistance client, la recherche de connaissances et l'automatisation des flux de travail internes. Déployé avec Docker ou Kubernetes, il évolue pour répondre aux exigences de production tout en restant entièrement open-source sous licence MIT.
  • Un cadre d'agent IA autonome open-source exécutant des tâches, intégrant des outils comme le navigateur et le terminal, et la mémoire via des retours humains.
    0
    0
    Qu'est-ce que SuperPilot ?
    SuperPilot est un cadre d'agent IA autonome utilisant de grands modèles linguistiques pour effectuer des tâches à plusieurs étapes sans intervention manuelle. En intégrant GPT et des modèles Anthropic, il peut générer des plans, appeler des outils externes tels qu'un navigateur sans interface pour le web scraping, un terminal pour exécuter des commandes shell, et des modules de mémoire pour la conservation du contexte. Les utilisateurs définissent des objectifs, et SuperPilot orchestre dynamiquement des sous-tâches, maintient une file d'attente de tâches, et s’adapte aux nouvelles informations. Son architecture modulaire permet d’ajouter des outils personnalisés, d’ajuster les paramètres des modèles, et de consigner les interactions. Avec des boucles de rétroaction intégrées, les entrées humaines peuvent affiner la prise de décision et améliorer les résultats. Cela rend SuperPilot adapté à l’automatisation de la recherche, des tâches de programmation, des tests, et des flux de travail de traitement de données routiniers.
  • Web-Agent est une bibliothèque d'agents IA basée sur le navigateur qui permet des interactions Web automatisées, le scraping, la navigation et le remplissage de formulaires utilisant des commandes en langage naturel.
    0
    0
    Qu'est-ce que Web-Agent ?
    Web-Agent est une bibliothèque Node.js conçue pour transformer les instructions en langage naturel en opérations du navigateur. Il s'intègre avec des fournisseurs LLM populaires (OpenAI, Anthropic, etc.) et contrôle des navigateurs headless ou affichés pour effectuer des actions telles que scrapper des pages, cliquer sur des boutons, remplir des formulaires, naviguer dans des workflows à plusieurs étapes et exporter les résultats. Les développeurs peuvent définir le comportement de l'agent en code ou JSON, l'étendre via des plugins et chaîner des tâches pour construire des flux d'automatisation complexes. Cela simplifie les tâches web fastidieuses, les tests et la collecte de données en permettant à l'IA de les interpréter et de les exécuter.
  • Une plateforme d'agents IA automatisant les flux de travail en sciences des données en générant du code, en interrogeant des bases de données et en visualisant les données de manière transparente.
    0
    0
    Qu'est-ce que Cognify ?
    Cognify permet aux utilisateurs de définir leurs objectifs en science des données et de laisser les agents IA gérer la partie difficile. Les agents peuvent écrire et déboguer du code, se connecter à des bases de données pour obtenir des insights, produire des visualisations interactives et même exporter des rapports. Grâce à une architecture de plugins, les utilisateurs peuvent étendre la fonctionnalité aux API personnalisées, aux systèmes de planification et aux services cloud. Cognify offre la reproductibilité, des fonctionnalités de collaboration et un journal de bord pour suivre les décisions et sorties des agents, le rendant adapté au prototypage rapide et aux flux de travail en production.
  • Un framework Python open-source pour créer des chatbots Discord alimentés par l'IA avec support LLM, intégration de plugins et gestion de la mémoire.
    0
    0
    Qu'est-ce que Discord AI Agent ?
    L'Agent IA Discord utilise l'API Discord et les LLM compatibles avec OpenAI pour transformer tout serveur en un environnement de chat interactif alimenté par l'IA. Les développeurs peuvent enregistrer des plugins personnalisés pour gérer les commandes slash, les événements de message ou les tâches planifiées, tandis que le stockage mémoire intégré conserve le contexte de la conversation pour des dialogues cohérents à plusieurs tours. Le framework supporte l'exécution asynchrone, la sélection configurée de modèles, les modèles de prompts et la journalisation pour le débogage. En modifiant un seul fichier de configuration YAML ou JSON, vous pouvez définir des clés API, des préférences de modèles, des préfixes de commandes et des répertoires de plugins. Son architecture extensible permet d'ajouter des fonctionnalités spécialisées telles que la modération, les jeux trivia ou les bots d'assistance client. Qu'il fonctionne localement ou déployé sur des plateformes cloud, l'Agent IA Discord simplifie le processus de création d'agents IA flexibles et faciles à entretenir pour l'engagement communautaire.
  • Hyperbolic Time Chamber permet aux développeurs de créer des agents IA modulaires avec une gestion avancée de la mémoire, une chaînée de prompts et une intégration d'outils personnalisés.
    0
    0
    Qu'est-ce que Hyperbolic Time Chamber ?
    Hyperbolic Time Chamber fournit un environnement flexible pour construire des agents IA en proposant des composants pour la gestion de la mémoire, l'orchestration de la fenêtre contextuelle, la chaînée de prompts, l'intégration d'outils et le contrôle d'exécution. Les développeurs définissent le comportement des agents via des blocs modulaires, configurent des mémoires personnalisées (courte et longue durée) et connectent des API externes ou des outils locaux. Le framework inclut le support asynchrone, la journalisation et des utilitaires de débogage, permettant une itération rapide et un déploiement d'agents conversationnels ou axés sur les tâches sophistiqués dans des projets Python.
Vedettes