Outils コミュニティ主導の開発 simples et intuitifs

Explorez des solutions コミュニティ主導の開発 conviviales, conçues pour simplifier vos projets et améliorer vos performances.

コミュニティ主導の開発

  • Un cadre d'apprentissage par renforcement pour former des politiques de navigation multi-robot sans collision dans des environnements simulés.
    0
    0
    Qu'est-ce que NavGround Learning ?
    NavGround Learning fournit une boîte à outils complète pour le développement et la benchmarking d'agents d'apprentissage par renforcement dans les tâches de navigation. Elle supporte la simulation multi-agent, la modélisation des collisions ainsi que des capteurs et actionneurs personnalisables. Les utilisateurs peuvent choisir parmi des modèles de politiques prédéfinis ou implémenter leurs propres architectures, s'entraîner avec des algorithmes RL de pointe et visualiser les métriques de performance. Son intégration avec OpenAI Gym et Stable Baselines3 facilite la gestion des expériences, tandis que ses outils de journalisation et de visualisation intégrés permettent une analyse approfondie du comportement des agents et de la dynamique d'apprentissage.
  • Swarms est une plateforme open-source pour créer, orchestrer et déployer des systèmes d'IA multi-agents collaboratifs avec des workflows personnalisables.
    0
    0
    Qu'est-ce que Swarms ?
    Swarms fonctionne comme un cadre axé sur Python et une interface web, permettant aux utilisateurs de configurer des agents individuels avec des rôles spécifiques, la gestion de la mémoire et des prompts personnalisés. Les utilisateurs définissent les interactions des agents via un éditeur de flux visuel ou une configuration YAML, orchestrant des arbres de décision complexes, des débats et des tâches collaboratives. La plateforme supporte l'intégration de plugins pour l'interrogation de données, l'accès à des bases de connaissances et des API tierces. Après déploiement, Swarms offre une surveillance en temps réel des activités des agents, des métriques de performance et des journaux. Elle se dimensionne horizontalement à l'aide d'outils d'orchestration de containers, permettant des simulations IA à grande échelle, des architectures de contrôle robotique ou des automatisations de workflows intelligents. L'architecture open-source garantit l'extensibilité, les améliorations communautaires et les options d'auto-hébergement pour un contrôle total des données.
  • Un agent IA extensible basé sur Python pour conversations multi-tours, mémoire, invites personnalisées et intégration Grok.
    0
    0
    Qu'est-ce que Chatbot-Grok ?
    Chatbot-Grok fournit un cadre d'agent IA modulaire écrit en Python, destiné à simplifier le développement de bots conversationnels. Il supporte la gestion de dialogues multi-tours, conserve la mémoire de chat entre les sessions et permet aux utilisateurs de définir des modèles d'invite personnalisés. L'architecture est extensible, permettant aux développeurs d'intégrer divers LLMs, y compris Grok, et de se connecter à des plateformes telles que Telegram ou Slack. Avec une organisation claire du code et une structure conviviale pour les plugins, Chatbot-Grok accélère le prototypage et le déploiement de assistants de chat prêts pour la production.
  • Doraemon-Agent est un cadre Python open-source qui orchestre des agents IA multi-étapes avec intégration de plugins et gestion de mémoire.
    0
    0
    Qu'est-ce que Doraemon-Agent ?
    Doraemon-Agent est une plateforme et un cadre Python open-source conçu pour permettre aux développeurs de créer des agents IA sophistiqués. Il permet d'intégrer des plugins personnalisés et des outils externes, de maintenir la mémoire à long terme entre les sessions, et d'exécuter une planification en chaîne pour plusieurs étapes. Les développeurs peuvent configurer des rôles d'agents, gérer le contexte, enregistrer les interactions et étendre la fonctionnalité via une architecture de plugins. Il simplifie la création d'assistants autonomes pour des tâches telles que l'analyse de données, le support à la recherche ou l'automatisation du service client.
  • Lila est un cadre d'agents IA open-source qui orchestre les LLM, gère la mémoire, intégré des outils, et personnalise les flux de travail.
    0
    0
    Qu'est-ce que Lila ?
    Lila fournit un cadre complet d'agents IA adapté au raisonnement multi-étapes et à l'exécution autonome de tâches. Les développeurs peuvent définir des outils personnalisés (API, bases de données, webhooks) et configurer Lila pour les appeler dynamiquement pendant l'exécution. Il offre des modules de mémoire pour stocker l'historique des conversations et les faits, une composante de planification pour séquencer les sous-tâches, et une incitation à la réflexion en chaîne pour des chemins de décision transparents. Son système de plugins permet une extension transparente avec de nouvelles capacités, tandis que la surveillance intégrée suit les actions et sorties de l'agent. La conception modulaire de Lila facilite l'intégration dans des projets Python existants ou le déploiement en tant que service hébergé pour des workflows d'agents en temps réel.
  • Un exemple Python illustrant les agents IA basés sur LLM avec des outils intégrés tels que recherche, exécution de code et Q&R.
    0
    0
    Qu'est-ce que LLM Agents Example ?
    L'exemple d'agents LLM offre une base de code pratique pour construire des agents IA en Python. Il démontre l'enregistrement d'outils personnalisés (recherche web, solveur mathématique via WolframAlpha, analyseur CSV, REPL Python), la création d'agents de chat et basés sur la récupération, ainsi que la connexion à des magasins vectoriels pour la réponse aux questions de documents. Le dépôt illustre des modèles pour maintenir la mémoire conversationnelle, dispatcher dynamiquement les appels aux outils et enchaîner plusieurs invites LLM pour résoudre des tâches complexes. Les utilisateurs apprennent à intégrer des API tierces, structurer les flux de travail des agents et étendre le cadre avec de nouvelles fonctionnalités — un guide pratique pour l'expérimentation et le prototypage par les développeurs.
  • Overeasy est un framework open-source pour agents AI permettant des assistants autonomes avec mémoire, intégration d'outils et orchestration multi-agent.
    0
    0
    Qu'est-ce que Overeasy ?
    Overeasy est un framework open-source basé sur Python pour orchestrer des agents IA alimentés par LLM dans diverses disciplines. Il fournit une architecture modulaire pour définir des agents, configurer des stockages de mémoire et intégrer des outils externes tels que APIs, bases de connaissances et bases de données. Les développeurs peuvent se connecter à OpenAI, Azure ou à des points de terminaison LLM auto-hébergés et concevoir des workflows dynamiques impliquant un ou plusieurs agents. Le moteur d'orchestration d'Overeasy gère la délégation des tâches, la prise de décisions et les stratégies de secours, permettant la création de travailleurs numériques robustes pour la recherche, le support client, l'analyse de données, la planification, etc. Une documentation complète et des projets d'exemple accélèrent le déploiement sur Linux, macOS et Windows.
  • SmartRAG est un cadre Python open-source pour construire des pipelines RAG qui permettent une Q&R basée sur LLM sur des collections de documents personnalisés.
    0
    0
    Qu'est-ce que SmartRAG ?
    SmartRAG est une bibliothèque Python modulaire conçue pour les workflows de génération augmentée par récupération (RAG) avec de grands modèles de langage. Elle combine l'ingestion de documents, l'indexation vectorielle et des API LLM de pointe pour fournir des réponses précises et riches en contexte. Les utilisateurs peuvent importer des PDFs, des fichiers texte ou des pages web, les indexer en utilisant des magasins vectoriels populaires comme FAISS ou Chroma, et définir des modèles de prompts personnalisés. SmartRAG orchestre la récupération, la composition des prompts et l'inférence LLM, renvoyant des réponses cohérentes basées sur les documents sources. En abstraisant la complexité des pipelines RAG, il accélère le développement de systèmes de questions-réponses, de chatbots et d'assistants de recherche. Les développeurs peuvent étendre les connecteurs, échanger les fournisseurs LLM et affiner les stratégies de récupération pour s'adapter à des domaines de connaissance spécifiques.
  • Un cadre modulaire Python pour construire des agents IA autonomes avec une planification pilotée par LLM, gestion de la mémoire et intégration d'outils.
    0
    0
    Qu'est-ce que AI-Agents ?
    AI-Agents offre une architecture d'agent flexible qui orchestre des planificateurs de modèles linguistiques, des modules de mémoire persistante et des boîtes à outils modulables. Les développeurs définissent des outils pour les requêtes HTTP, les opérations sur des fichiers et la logique personnalisée, puis configurent un planificateur LLM pour décider quel outil invoquer. La mémoire stocke le contexte et l'historique des conversations. Le framework gère l'exécution asynchrone, la récupération des erreurs et la journalisation, permettant un prototypage rapide d'assistants intelligents, d'analyses de données ou de bots d'automatisation sans réinventer la logique d'orchestration principale.
  • Agent API de HackerGCLASS : un cadre RESTful en Python pour déployer des agents IA avec des outils personnalisés, de la mémoire et des flux de travail.
    0
    0
    Qu'est-ce que HackerGCLASS Agent API ?
    HackerGCLASS Agent API est un framework open-source en Python qui expose des points de terminaison RESTful pour exécuter des agents IA. Les développeurs peuvent définir des intégrations d'outils personnalisés, configurer des modèles de prompt et maintenir l'état et la mémoire des agents à travers les sessions. Le framework supporte la coordination simultanée de plusieurs agents, la gestion de flux de conversation complexes et l'intégration de services externes. Il simplifie le déploiement via Uvicorn ou d'autres serveurs ASGI et offre une extensibilité avec des modules de plugins, permettant la création rapide d'agents IA spécifiques à un domaine pour divers cas d'utilisation.
  • Arenas est un cadre open-source permettant aux développeurs de prototyper, orchestrer et déployer des agents basés sur LLM personnalisables avec des intégrations d'outils.
    0
    0
    Qu'est-ce que Arenas ?
    Arenas est conçu pour rationaliser le cycle de développement des agents alimentés par LLM. Les développeurs peuvent définir des personas d'agents, intégrer des API et des outils externes en tant que plugins, et composer des workflows à plusieurs étapes à l'aide d'une DSL flexible. Le cadre gère la mémoire des conversations, la gestion des erreurs et la journalisation, permettant des pipelines RAG robustes et la collaboration multi-agents. Avec une interface en ligne de commande et une API REST, les équipes peuvent prototyper des agents localement et les déployer en tant que microservices ou applications conteneurisées. Arenas supporte les fournisseurs LLM populaires, offre des tableaux de bord de surveillance et comprend des modèles intégrés pour des cas d'utilisation courants. Cette architecture flexible réduit le code boilerplate et accélère la mise sur le marché de solutions axées sur l'IA dans des domaines tels que l'engagement client, la recherche et le traitement des données.
  • Une plateforme UI de chat open-source basée sur React permettant l'intégration en temps réel des LLM avec des thèmes personnalisables, des réponses en streaming et la prise en charge de multiples agents.
    0
    0
    Qu'est-ce que Chipper ?
    Chipper est une bibliothèque de composants React open-source conçue pour simplifier la création d'interfaces conversationnelles alimentées par de grands modèles de langage. Elle offre un streaming en temps réel des réponses IA, une gestion intégrée du contexte et de l'historique, la prise en charge de plusieurs agents dans un seul chat, des pièces jointes, et la personnalisation des thèmes. Les développeurs peuvent intégrer n'importe quel backend LLM via des props simples, étendre avec des plugins, et personnaliser avec CSS-in-JS pour une intégration fluide et des mises en page réactives.
  • Co-Sight est un framework open-source d'IA offrant une analyse vidéo en temps réel pour la détection, le suivi d'objets et l'inférence distribuée.
    0
    0
    Qu'est-ce que Co-Sight ?
    Co-Sight est un framework d'IA open-source qui simplifie le développement et le déploiement de solutions d'analyses vidéo en temps réel. Il fournit des modules pour l'ingestion de données vidéo, le prétraitement, la formation de modèles et l'inférence distribuée sur l'Edge et le Cloud. Avec un support intégré pour la détection d'objets, la classification, le suivi et l'orchestration de pipelines, Co-Sight garantit une faible latence et un haut débit. Son architecture modulaire s'intègre facilement avec des bibliothèques d'apprentissage profond populaires et peut évoluer sans effort avec Kubernetes. Les développeurs peuvent définir des pipelines via YAML, déployer avec Docker et surveiller les performances via un tableau de bord web. Co-Sight permet de créer des applications de vision avancée pour la surveillance des villes intelligentes, le transport intelligent et l'inspection de qualité industrielle, en réduisant le temps de développement et la complexité opérationnelle.
  • JaCaMo est une plateforme de système multi-agent intégrant Jason, CArtAgO et Moise pour une programmation modulaire et évolutive basée sur les agents.
    0
    0
    Qu'est-ce que JaCaMo ?
    JaCaMo fournit un environnement unifié pour concevoir et exécuter des systèmes multi-agents (MAS) en intégrant trois composants principaux : le langage de programmation Jason pour les agents BDI, CArtAgO pour la modélisation environnementale basée sur des artefacts, et Moise pour la spécification des structures organisationnelles et roles. Les développeurs peuvent écrire des plans d'agents, définir des artefacts avec des opérations, et organiser des groupes d'agents sous des cadres normatifs. La plateforme inclut des outils pour la simulation, le débogage et la visualisation des interactions MAS. Avec le support pour l'exécution distribuée, des référentiels d'artefacts, et une messagerie flexible, JaCaMo permet un prototypage rapide et la recherche dans des domaines tels que l'intelligence en essaim, la robotique collaborative et la prise de décision distribuée. Son design modulaire assure l'évolutivité et l'extensibilité à travers des projets académiques et industriels.
  • ExampleAgent est un cadre de modèle pour créer des agents IA personnalisables qui automatisent les tâches via l'API OpenAI.
    0
    0
    Qu'est-ce que ExampleAgent ?
    ExampleAgent est une boîte à outils axée sur le développement pour accélérer la création d'assistants pilotés par l'IA. Il s'intègre directement aux modèles GPT d'OpenAI pour gérer la compréhension et la génération du langage naturel et propose un système plug-in pour ajouter des outils ou API personnalisés. Le framework gère le contexte de conversation, la mémoire et la gestion des erreurs, permettant aux agents d'effectuer la récupération d'informations, l'automatisation des tâches et des workflows de prise de décision. Avec des modèles de code clairs, une documentation et des exemples, les équipes peuvent rapidement créer des agents spécifiques au domaine pour les chatbots, l'extraction de données, la planification, etc.
  • FMAS est un cadre flexible pour les systèmes multi-agents permettant aux développeurs de définir, simuler et surveiller des agents IA autonomes avec des comportements et une messagerie personnalisés.
    0
    0
    Qu'est-ce que FMAS ?
    FMAS (Flexible Multi-Agent System) est une bibliothèque Python open-source pour construire, exécuter et visualiser des simulations multi-agents. Vous pouvez définir des agents avec une logique de décision personnalisée, configurer un modèle d'environnement, mettre en place des canaux de messagerie pour la communication et exécuter des simulations évolutives. FMAS fournit des hooks pour surveiller l'état des agents, déboguer les interactions et exporter les résultats. Son architecture modulaire supporte des plugins pour la visualisation, la collecte de métriques et l'intégration avec des sources de données externes, le rendant idéal pour la recherche, l'éducation et les prototypes réels de systèmes autonomes.
  • Un cadre open-source modulaire intégrant de grands modèles de langage aux plateformes de messagerie pour des agents IA personnalisés.
    0
    0
    Qu'est-ce que LLM to MCP Integration Engine ?
    LLM to MCP Integration Engine est un cadre open-source conçu pour intégrer de grands modèles de langage (LLMs) avec diverses plateformes de communication par messagerie (MCP). Il fournit des adaptateurs pour les API LLM telles qu'OpenAI et Anthropic, ainsi que des connecteurs pour des plateformes comme Slack, Discord et Telegram. Le moteur gère l'état des sessions, enrichit le contexte et route les messages bidirectionnellement. Son architecture basée sur des plugins permet aux développeurs d'étendre la prise en charge à de nouveaux fournisseurs et de personnaliser la logique métier, accélérant ainsi le déploiement d'agents IA en environnement de production.
  • Mina est un cadre d'agent IA minimal basé sur Python permettant l'intégration d'outils personnalisés, la gestion de la mémoire, l'orchestration LLM et l'automatisation des tâches.
    0
    0
    Qu'est-ce que Mina ?
    Mina fournit une base légère mais puissante pour construire des agents IA en Python. Vous pouvez définir des outils personnalisés (tels que des extracteurs Web, des calculateurs ou des connecteurs de base de données), attacher des buffers de mémoire pour conserver le contexte de conversation, et orchestrer des séquences d'appels aux modèles linguistiques pour un raisonnement en plusieurs étapes. Basé sur des API LLM courantes, Mina gère l'exécution asynchrone, la gestion des erreurs et la journalisation. Sa conception modulaire facilite l'extension avec de nouvelles capacités, tandis que l'interface CLI permet une prototypage rapide et le déploiement d'applications pilotées par des agents.
Vedettes