Solutions 오픈소스 소프트웨어 à prix réduit

Accédez à des outils 오픈소스 소프트웨어 abordables et puissants, conçus pour répondre à vos besoins professionnels et personnels.

오픈소스 소프트웨어

  • Pipe Pilot est un cadre Python qui orchestre des pipelines d’agents pilotés par LLM, permettant des flux de travail IA complexes à plusieurs étapes avec facilité.
    0
    0
    Qu'est-ce que Pipe Pilot ?
    Pipe Pilot est un outil open-source qui permet aux développeurs de créer, visualiser et gérer des pipelines IA en Python. Il offre une API déclarative ou une configuration YAML pour chaîner des tâches telles que génération de texte, classification, enrichissement de données et appels API REST. Les utilisateurs peuvent mettre en œuvre des branches conditionnelles, des boucles, des réinitialisations et des gestionnaires d’erreurs pour créer des workflows résilients. Pipe Pilot maintient le contexte d’exécution, enregistre chaque étape et supporte des modes d’exécution parallèles ou séquentiels. Il s’intègre avec les principaux fournisseurs LLM, des fonctions personnalisées et des services externes, idéal pour automatiser des rapports, chatbots, le traitement intelligent de données et des applications d’IA complexes en plusieurs étapes.
  • Un framework Python open-source fournissant une mémoire modulaire, la planification et l'intégration d'outils pour la création d'agents autonomes alimentés par LLM.
    0
    0
    Qu'est-ce que CogAgent ?
    CogAgent est une bibliothèque Python open-source axée sur la recherche, conçue pour rationaliser le développement d'agents IA. Elle fournit des modules principaux pour la gestion de la mémoire, la planification et le raisonnement, l'intégration d'outils et d'API, ainsi que l'exécution en chaîne de pensée. Grâce à son architecture hautement modulaire, les utilisateurs peuvent définir des outils, des mémoires et des politiques d'agents personnalisés pour créer des chatbots conversationnels, des planificateurs de tâches autonomes et des scripts d'automatisation de workflow. CogAgent supporte l'intégration avec des modèles de langage populaires tels qu'OpenAI GPT et Meta LLaMA, permettant aux chercheurs et développeurs d'expérimenter, d'étendre et de faire évoluer leurs agents intelligents pour diverses applications réelles.
  • Heuristiques prioritaires efficaces MAPF (ePH-MAPF) calcule rapidement des chemins multi-agents sans collision dans des environnements complexes en utilisant la recherche incrémentielle et des heuristiques.
    0
    0
    Qu'est-ce que ePH-MAPF ?
    ePH-MAPF fournit un pipeline efficace pour calculer des chemins sans collision pour des dizaines à des centaines d'agents sur des cartes basées sur une grille. Il utilise des heuristiques prioritaires, des techniques de recherche incrémentielle et des métriques de coût personnalisables (Manhattan, Euclidéenne) pour équilibrer rapidité et qualité de la solution. Les utilisateurs peuvent choisir parmi différentes fonctions heuristiques, intégrer la bibliothèque dans des systèmes robotiques Python, et benchmarker la performance sur des scénarios MAPF standards. Le code est modulaire et bien documenté, permettant aux chercheurs et développeurs de l’étendre pour des obstacles dynamiques ou des environnements spécialisés.
  • ILLA Cloud est une plateforme open-source low-code pour créer des applications et des outils internes propulsés par l'IA.
    0
    0
    Qu'est-ce que ILLA Cloud 2.0 ?
    ILLA Cloud est une plateforme low-code open-source conçue pour simplifier le développement d'applications commerciales. En utilisant une interface visuelle de glisser-déposer, les développeurs peuvent rapidement créer des applications propulsées par l'IA, des tableaux de bord de données, des panneaux d'administration et divers outils internes. La plateforme est conçue pour améliorer la productivité en minimisant le codage manuel et en fournissant un moyen sans couture d'intégrer des capacités d'IA. Que vous créiez un CRM, un CMS ou tout outil interne personnalisé, ILLA Cloud fournit un cadre solide pour un développement et un déploiement rapides.
  • Extension Chrome open-source permettant des tâches d'automatisation web en langage naturel via des workflows multi-agent et des intégrations LLM personnalisables.
    0
    0
    Qu'est-ce que NanoBrowser ?
    NanoBrowser s'exécute directement dans votre navigateur en tant qu'extension Chrome, vous permettant d'automatiser des tâches web répétitives ou complexes via des prompts en langage naturel. Vous le configurez avec votre propre clé API LLM — OpenAI GPT, modèles LLaMA auto-hébergés ou autres — et définissez des workflows composés de plusieurs agents. Il prend en charge le scraping de données, les interactions avec les formulaires, la recherche automatisée et la chaînage de workflows via l'intégration LangChain. Vous pouvez orchestrer des agents pour collaborer sur des sous-tâches, exporter des résultats en CSV ou JSON, et déboguer ou affiner les étapes de manière interactive. En tant qu'alternative open-source aux opérateurs propriétaires, NanoBrowser privilégie la confidentialité, l'extensibilité et la facilité d'utilisation.
  • OpenWebResearcher est un agent IA basé sur le Web qui explore, collecte, analyse et résume de manière autonome les informations en ligne.
    0
    0
    Qu'est-ce que OpenWebResearcher ?
    OpenWebResearcher agit comme un assistant de recherche Web autonome en orchestrant un pipeline de crawling, d’extraction de données et de résumé piloté par l’IA. Après configuration, l’agent navigue sur les sites cibles, identifie le contenu pertinent via des heuristiques ou des critères définis par l’utilisateur, et récupère des données structurées. Il utilise de grands modèles linguistiques pour analyser, filtrer et distiller les principales informations, en générant des résumés à puces ou des rapports détaillés. Les utilisateurs peuvent personnaliser les paramètres de scraping, intégrer des plugins pour un traitement spécialisé, et programmer des tâches de recherche récurrentes. L’architecture modulaire permet aux développeurs d’étendre ses capacités avec de nouveaux analyseurs ou formats de sortie. Idéal pour la veille concurrentielle, les revues de littérature académique, l’analyse de marché et la surveillance de contenu, OpenWebResearcher réduit le temps consacré à la collecte et à la synthèse manuelles des données.
  • Une suite d'outils d'agents AI pour OpenWebUI permettant aux LLMs de naviguer sur le web, d'exécuter du code, de gérer des fichiers et d'exécuter des commandes en toute simplicité.
    0
    0
    Qu'est-ce que OpenWebUI Tools ?
    OpenWebUI Tools offre une collection de plugins pour OpenWebUI afin d'améliorer les grands modèles de langage (LLMs) avec un accès à des outils externes. Il comprend un module de navigation web et de recherche pour les données en direct, un REPL Python et un exécuteur de terminal pour l'exécution instantanée de code, des lecteurs/écrivains de système de fichiers pour accéder aux documents, et des utilitaires pour analyser les PDFs ou formater le JSON. Ces outils fonctionnent dans le frontend de OpenWebUI, permettant aux utilisateurs d'appeler des fonctions de manière interactive et de combiner le raisonnement IA avec des actions du monde réel pour une expérience conversationnelle et orientée tâches plus riche.
  • Obtenez des réponses aux commandes CLI directement dans votre terminal à partir de ChatGPT.
    0
    0
    Qu'est-ce que AI CLI ?
    AI CLI est un outil puissant d'interface en ligne de commande conçu pour récupérer des réponses en temps réel aux commandes shell directement à partir de ChatGPT dans votre terminal. Cet outil open-source est idéal pour les développeurs, les administrateurs système et les passionnés de CLI qui souhaitent rationaliser leurs flux de travail et minimiser le besoin de se référer constamment à la documentation ou à des ressources externes.
  • Ajustez facilement et monétisez vos modèles d'IA en un clic.
    0
    0
    Qu'est-ce que Bakery By Bagel ?
    Bakery.dev est une plateforme open source conçue pour simplifier et rationaliser l'ajustement et la monétisation des modèles d'IA. En fournissant une interface utilisateur conviviale, elle permet aux startups IA, aux ingénieurs en apprentissage automatique et aux chercheurs de créer, télécharger des ensembles de données, ajuster les paramètres des modèles et proposer leurs modèles sur un marketplace. Avec un support intégré pour les modèles d'IA populaires et un stockage décentralisé, Bakery.dev se démarque comme un outil robuste et efficace pour quiconque cherchant à améliorer ses solutions IA et à générer des revenus.
  • Une implémentation basée sur Java du protocole Contract Net permettant aux agents autonomes de négocier et d'allouer des tâches de manière dynamique dans des systèmes multi-agents.
    0
    0
    Qu'est-ce que Contract Net Protocol ?
    Le dépôt du protocole Contract Net fournit une implémentation Java complète du protocole d’interaction FIPA Contract Net. Les développeurs peuvent créer des agents gestionnaires et contractants échangeant CFP (Call For Proposal), propositions, acceptations et rejets via des canaux de communication entre agents. Le code inclut des modules principaux pour la diffusion de tâches, la collecte d’offres, l’évaluation des propositions selon des critères personnalisables, l’attribution de contrats et la surveillance de l’état d’exécution. Il peut être intégré dans des frameworks multi-agents plus grands ou utilisé comme bibliothèque autonome pour la recherche, la planification industrielle ou la coordination robotique.
  • Simulateur open-source basé sur ROS permettant la course autonome multi-agent avec contrôle personnalisable et dynamique réaliste des véhicules.
    0
    0
    Qu'est-ce que F1Tenth Two-Agent Simulator ?
    Le F1Tenth Two-Agent Simulator est un cadre de simulation spécialisé construit sur ROS et Gazebo pour émuler deux véhicules autonomes à l’échelle 1/10 en course ou en coopération sur des circuits personnalisés. Il prend en charge la physique réaliste du modèle de pneus, l’émulation de capteurs, la détection de collisions et la journalisation des données. Les utilisateurs peuvent intégrer leurs propres algorithmes de planification et de contrôle, ajuster les paramètres des agents, et exécuter des scénarios tête-à-tête pour évaluer la performance, la sécurité et les stratégies de coordination dans des conditions contrôlées.
  • Un assistant personnel alimenté par l'IA basé sur Python utilisant la reconnaissance vocale et les requêtes en langage naturel pour effectuer des tâches et répondre aux demandes.
    0
    0
    Qu'est-ce que JARVIS ?
    JARVIS est un agent AI open-source construit en Python qui transforme les commandes vocales en actions automatisées sur l'ordinateur de l'utilisateur. En combinant la reconnaissance vocale (par exemple avec les bibliothèques comme SpeechRecognition et pyttsx3) avec les modèles GPT d'OpenAI, JARVIS peut répondre aux questions, rechercher sur le web, jouer de la musique, ouvrir des applications et envoyer des e-mails. Avec une architecture modulaire, les développeurs peuvent intégrer des API supplémentaires (par exemple météo, calendrier, actualités), personnaliser la logique de gestion des intentions, et étendre la capacité aux appareils IoT. JARVIS utilise l'entrée audio en temps réel, traite les requêtes des utilisateurs et synthétise des réponses en langage naturel, créant une interface conversationnelle fluide pour l'informatique mains libres. Le projet insiste sur une installation facile via pip et une documentation claire pour un déploiement rapide.
  • Fournit un backend FastAPI pour l'orchestration et l'exécution de workflows de modèles linguistiques basés sur des graphes dans l'interface graphique LangGraph.
    0
    0
    Qu'est-ce que LangGraph-GUI Backend ?
    Le backend LangGraph-GUI est un service open-source FastAPI qui alimente l'interface graphique LangGraph. Il gère les opérations CRUD sur les nœuds et arêtes du graphe, orchestre l'exécution des workflows pour divers modèles linguistiques, et retourne des résultats d'inférence en temps réel. Le backend supporte l'authentification, la journalisation et l'extensibilité via des plugins personnalisés, permettant aux utilisateurs de prototyper, tester et déployer des workflows complexes de traitement du langage naturel en mode paradigme visuel tout en conservant un contrôle total sur les pipelines d'exécution.
  • LlamaChat : Discutez avec des modèles LLaMA sur votre Mac, y compris Alpaca et GPT4All.
    0
    0
    Qu'est-ce que LlamaChat ?
    LlamaChat est une application macOS open-source conçue pour faciliter l'interaction avec les modèles LLaMA, Alpaca et GPT4All. En exécutant ces modèles localement sur votre appareil, LlamaChat garantit une expérience de chat fluide et privée. Cet outil est idéal pour les utilisateurs qui souhaitent explorer des conversations basées sur l'IA sans dépendre des services cloud, assurant un accent sur la confidentialité et la sécurité des données. L'application propose une interface intuitive et des performances robustes, rendant simple l'interaction avec des modèles de langage avancés.
  • Une plateforme Python open-source pour construire des assistants IA personnalisables avec mémoire, intégrations d'outils et observabilité.
    0
    1
    Qu'est-ce que Intelligence ?
    Intelligence permet aux développeurs de assembler des agents IA en composant des composants qui gèrent une mémoire avec état, intègrent des modèles linguistiques tels qu'OpenAI GPT, et se connectent à des outils externes (API, bases de données, bases de connaissances). Il dispose d'un système de plugins pour des fonctionnalités personnalisées, de modules d'observabilité pour tracer les décisions et métriques, et d'outils d'orchestration pour coordonner plusieurs agents. Les développeurs l'installent via pip, définissent des agents en Python avec des classes simples, et configurent des backends de mémoire (en mémoire, Redis ou stock de vecteurs). Son serveur API REST facilite le déploiement, tandis que les outils CLI aident au débogage. Intelligence rationalise les tests, la gestion des versions et la montée en charge des agents, le rendant adapté pour les chatbots, le support client, la récupération de données, le traitement de documents et les workflows automatisés.
  • Cadre d'agent IA modulaire orchestrant la planification LLM, l'utilisation d'outils et la gestion de la mémoire pour une exécution autonome des tâches.
    0
    0
    Qu'est-ce que MixAgent ?
    MixAgent fournit une architecture plug-and-play qui permet aux développeurs de définir des invites, de connecter plusieurs backends LLM et d'incorporer des outils externes (API, bases de données ou code). Il orchestre les boucles de planification et d'exécution, gère la mémoire de l'agent pour des interactions à état, et journalise le raisonnement en chaîne. Les utilisateurs peuvent rapidement prototyper des assistants, des récupérateurs de données ou des robots d'automatisation sans construire de couches d'orchestration à partir de zéro, ce qui accélère le déploiement d'agents AI.
Vedettes