Solutions Docker deployment à prix réduit

Accédez à des outils Docker deployment abordables et puissants, conçus pour répondre à vos besoins professionnels et personnels.

Docker deployment

  • Une plateforme open-source Python pour construire, orchestrer et déployer des agents IA avec mémoire, outils et support multi-modèles.
    0
    0
    Qu'est-ce que Agentfy ?
    Agentfy offre une architecture modulaire pour construire des agents IA en combinant des LLM, des backends de mémoire et des intégrations d’outils dans une exécution cohésive. Les développeurs déclarent le comportement de l’agent à l’aide de classes Python, enregistrent des outils (API REST, bases de données, utilitaires) et choisissent des stockages mémoire (local, Redis, SQL). Le framework orchestre les invites, actions, appels d’outils et gestion du contexte pour automatiser les tâches. La CLI intégrée et le support Docker permettent un déploiement en un seul clic dans les environnements cloud, edge ou bureau.
  • Une plateforme web pour découvrir, explorer et déployer divers agents IA avec des catégories recherchables dans une marketplace unifiée.
    0
    0
    Qu'est-ce que AI Agent Marketplace ?
    Le AI Agent Marketplace est construit avec Next.js et React pour fournir un hub centralisé où les utilisateurs peuvent parcourir, évaluer et déployer une large gamme d’agents IA. La plateforme extrait les métadonnées des agents à partir de contributions communautaires, offrant des descriptions détaillées, des tags de capacités et des démos en direct dans le navigateur. Les utilisateurs peuvent filtrer par domaine, fonction ou fournisseur technologique. Pour les développeurs, le dépôt open-source comprend une architecture modulaire avec support pour l’ajout de nouvelles entrées d’agents, la configuration d’API et la personnalisation de l’interface utilisateur. Les options de déploiement incluent l’hébergement sur Vercel ou des conteneurs Docker locaux. En consolidant différents projets d’agents IA en une interface consultable, le marketplace accélère l’expérimentation, la collaboration et l’intégration dans des flux de travail de production.
  • Un moteur IA open-source générant des vidéos attrayantes de 30 secondes à partir de prompts textuels en utilisant la synthèse vidéo, TTS et montage.
    0
    0
    Qu'est-ce que AI Short Video Engine ?
    AI-Short-Video-Engine orchestre plusieurs modules AI dans une pipeline de bout en bout pour transformer des prompts textuels définis par l’utilisateur en vidéos courtes et professionnelles. Tout d’abord, le système utilise de grands modèles linguistiques pour générer un storyboard et un script. Ensuite, Stable Diffusion crée des illustrations de scène, tandis que bark fournit une narration vocale réaliste. L’engine assemble images, superpositions de texte et audio en une vidéo cohérente, en ajoutant automatiquement transitions et musique de fond. Son architecture basée sur des plugins permet de personnaliser chaque étape : échanger des modèles TTS ou générateurs d’images alternatifs, ajuster la résolution vidéo et les styles. Déployé via Docker ou Python natif, il offre des commandes CLI et des points de terminaison API REST sûrs, permettant aux développeurs d’intégrer la production vidéo pilotée par IA dans leurs flux de travail sans effort.
  • Aladin est un framework open-source pour agents LLM autonomes permettant l'automatisation des flux de travail, la prise de décision basée sur la mémoire et l'orchestration de tâches via des plugins.
    0
    0
    Qu'est-ce que Aladin ?
    Aladin propose une architecture modulaire permettant aux développeurs de définir des agents autonomes propulsés par de grands modèles de langage (LLMs). Chaque agent peut charger des backends mémoire (ex. SQLite, en mémoire), utiliser des modèles de prompts dynamiques et intégrer des plugins personnalisés pour des appels API externes ou l'exécution de commandes locales. Il possède un planificateur de tâches qui décompose des objectifs de haut niveau en actions séquencées, les exécutant dans l'ordre et les réitérant basés sur le feedback de l'LLM. La configuration est gérée via des fichiers YAML et des variables d'environnement, l'adaptant à divers cas d'usage. Les utilisateurs peuvent déployer Aladin via Docker Compose ou pip. Les interfaces CLI et HTTP basées sur FastAPI permettent de lancer des agents, surveiller leur exécution et inspecter l'état de la mémoire, facilitant l'intégration avec des pipelines CI/CD, interfaces de chat ou dashboards personnalisés.
  • Un cadre basé sur Docker pour déployer rapidement et orchestrer des agents GPT autonomes avec des dépendances intégrées pour des environnements de développement reproductibles.
    0
    0
    Qu'est-ce que Kurtosis AutoGPT Package ?
    Le package Kurtosis AutoGPT est un cadre d'agent IA empaqueté en tant que module Kurtosis qui fournit un environnement AutoGPT entièrement configuré avec un minimum d'effort. Il provisionne et connecte des services tels que PostgreSQL, Redis et un magasin vectoriel, puis injecte vos clés API et scripts d'agents dans le réseau. Avec Docker et Kurtosis CLI, vous pouvez lancer des instances d'agents isolées, consulter les logs, ajuster les budgets et gérer les politiques réseau. Ce package supprime les frictions liées à l'infrastructure, permettant aux équipes de développer, tester et faire évoluer rapidement des workflows autonomes pilotés par GPT de manière reproductible.
  • Intégrez facilement des modèles d'IA sans connaissances en apprentissage automatique.
    0
    0
    Qu'est-ce que Cargoship ?
    Cargoship fournit une solution simplifiée pour intégrer l'IA dans vos applications sans avoir besoin de connaissances en apprentissage automatique. Choisissez parmi notre collection de modèles d'IA open source, emballés de manière pratique dans des conteneurs Docker. En exécutant le conteneur, vous pouvez déployer les modèles sans effort et y accéder via une API bien documentée. Cela facilite l'incorporation de capacités avancées d'IA à votre logiciel, quel que soit votre niveau de compétence, en accélérant le temps de développement et en réduisant la complexité.
  • UI gratuite et open-source pour ChatGPT, axée sur la confidentialité et l'expérience utilisateur.
    0
    0
    Qu'est-ce que Chatpad AI ?
    Chatpad AI est une interface utilisateur de chat gratuite et open-source qui améliore l'expérience ChatGPT. Elle offre un environnement élégant, facile à utiliser et axé sur la confidentialité, permettant aux utilisateurs d'avoir des conversations sans couture et de créer des demandes sans effort. Auto-hébergée à l'aide de Docker, elle garantit aux utilisateurs un contrôle total sur leurs données. Que ce soit avec une auto-hébergement avec des configurations personnalisées ou en utilisant des déploiements en un clic, Chatpad AI offre flexibilité et facilité d'utilisation, ce qui en fait un excellent choix pour quiconque cherchant à interagir avec ChatGPT de manière sécurisée et conviviale.
  • ClassiCore-Public automatise la classification ML, offrant le prétraitement des données, la sélection de modèles, la réglage des hyperparamètres et le déploiement d'API évolutives.
    0
    0
    Qu'est-ce que ClassiCore-Public ?
    ClassiCore-Public fournit un environnement complet pour construire, optimiser et déployer des modèles de classification. Il dispose d'un créateur de pipelines intuitif qui gère l'ingestion de données brutes, le nettoyage et l'ingénierie des fonctionnalités. Le zoo de modèles intégré comprend des algorithmes tels que Forêts Aléatoires, SVMs et architectures de Deep Learning. L'optimisation automatisée des hyperparamètres utilise la recherche bayésienne pour trouver les réglages optimaux. Les modèles entraînés peuvent être déployés en tant qu'API RESTful ou microservices, avec des tableaux de bord de surveillance qui suivent les performances en temps réel. Les plugins extensibles permettent aux développeurs d'ajouter des prétraitements, visualisations ou de nouvelles cibles de déploiement, faisant de ClassiCore-Public une solution idéale pour les tâches de classification à l'échelle industrielle.
  • Co-Sight est un framework open-source d'IA offrant une analyse vidéo en temps réel pour la détection, le suivi d'objets et l'inférence distribuée.
    0
    0
    Qu'est-ce que Co-Sight ?
    Co-Sight est un framework d'IA open-source qui simplifie le développement et le déploiement de solutions d'analyses vidéo en temps réel. Il fournit des modules pour l'ingestion de données vidéo, le prétraitement, la formation de modèles et l'inférence distribuée sur l'Edge et le Cloud. Avec un support intégré pour la détection d'objets, la classification, le suivi et l'orchestration de pipelines, Co-Sight garantit une faible latence et un haut débit. Son architecture modulaire s'intègre facilement avec des bibliothèques d'apprentissage profond populaires et peut évoluer sans effort avec Kubernetes. Les développeurs peuvent définir des pipelines via YAML, déployer avec Docker et surveiller les performances via un tableau de bord web. Co-Sight permet de créer des applications de vision avancée pour la surveillance des villes intelligentes, le transport intelligent et l'inspection de qualité industrielle, en réduisant le temps de développement et la complexité opérationnelle.
  • CrewAI Agent Generator crée rapidement des agents IA personnalisés avec des modèles préconçus, une intégration API transparente et des outils de déploiement.
    0
    0
    Qu'est-ce que CrewAI Agent Generator ?
    CrewAI Agent Generator utilise une interface en ligne de commande pour initialiser un nouveau projet d’agent IA avec des structures de dossiers solidement établies, des modèles de prompts d’exemple, des définitions d’outils et des stubs de test. Vous pouvez configurer des connexions à OpenAI, Azure ou des endpoints LLM personnalisés ; gérer la mémoire de l’agent avec des magasins vectoriels ; orchestrer plusieurs agents dans des workflows collaboratifs ; consulter des logs détaillés de conversation ; et déployer vos agents sur Vercel, AWS Lambda ou Docker avec des scripts intégrés. Il accélère le développement et garantit une architecture cohérente pour les projets d’agents IA.
  • Déployez facilement votre image Docker sur Google Cloud Run.
    0
    0
    Qu'est-ce que Deploud ?
    Deploud est une plateforme puissante conçue pour le déploiement rapide d'images Docker sur Google Cloud Run. Avec Deploud, les utilisateurs bénéficient de la génération automatique de scripts, leur permettant de déployer leurs applications de manière transparente. Le service simplifie le processus en gérant les complexités du code d'infrastructure, vous permettant de vous concentrer sur la création d'excellentes applications. Il génère des scripts de déploiement vérifiés qui fonctionnent sans faille, créant un flux de travail plus efficace pour les développeurs.
  • Un cadre open-source permettant la création et l'orchestration de multiples agents IA collaborant sur des tâches complexes via des messages JSON.
    0
    0
    Qu'est-ce que Multi AI Agent Systems ?
    Ce cadre permet aux utilisateurs de concevoir, configurer et déployer plusieurs agents IA qui communiquent via des messages JSON à travers un orchestrateur central. Chaque agent peut avoir des rôles, des invites et des modules de mémoire distincts, et il est possible d'intégrer n'importe quel fournisseur LLM en implémentant une interface de fournisseur. Le système supporte l'historique de conversation persistant, le routage dynamique et les extensions modulaires. Idéal pour simuler des débats, automatiser des flux de support client ou coordonner la génération de documents en plusieurs étapes. Il fonctionne sous Python avec un support Docker pour les déploiements conteneurisés.
  • Un cadre Python pour construire des agents d'IA conversationnels multi-canaux évolutifs avec gestion de contexte.
    0
    0
    Qu'est-ce que Multiple MCP Server-based AI Agent BOT ?
    Ce cadre fournit une architecture basée sur un serveur prenant en charge des serveurs MCP (Multi-Channel Processing) multiples pour gérer des conversations simultanées, maintenir le contexte entre les sessions et intégrer des services externes via des plugins. Les développeurs peuvent configurer des connecteurs pour les plates-formes de messagerie, définir des appels de fonctions personnalisés et faire évoluer les instances via Docker ou des hôtes natifs. Il inclut la journalisation, la gestion des erreurs et un pipeline modulaire pour étendre les capacités sans modifier le code principal.
  • OmniMind0 est un cadre Python open-source permettant des workflows multi-agents autonomes avec gestion de mémoire intégrée et intégration de plugins.
    0
    0
    Qu'est-ce que OmniMind0 ?
    OmniMind0 est un cadre d’IA basé sur des agents complet, écrit en Python, permettant la création et l’orchestration de plusieurs agents autonomes. Chaque agent peut être configuré pour gérer des tâches spécifiques — comme la récupération de données, la synthèse ou la prise de décision — tout en partageant l’état via des backends de mémoire modulables comme Redis ou des fichiers JSON. L’architecture de plugins intégrée vous permet d’étendre la fonctionnalité avec des APIs externes ou des commandes personnalisées. Il prend en charge les modèles OpenAI, Azure et Hugging Face, et offre des déploiements via CLI, serveur API REST ou Docker pour une intégration flexible dans vos flux de travail.
  • RAGApp simplifie la création de chatbots avec récupération en intégrant les bases de données vectorielles, les LLMs et les chaînes d'outils dans un cadre low-code.
    0
    0
    Qu'est-ce que RAGApp ?
    RAGApp est conçu pour simplifier toute la pipeline RAG en fournissant des intégrations clés en main avec des bases de données vectorielles populaires (FAISS, Pinecone, Chroma, Qdrant) et de grands modèles de langage (OpenAI, Anthropic, Hugging Face). Il inclut des outils d'ingestion de données pour convertir des documents en embeddings, des mécanismes de récupération contextuelle pour une sélection précise des connaissances, et un UI de chat intégré ou un serveur API REST pour le déploiement. Les développeurs peuvent facilement étendre ou remplacer n'importe quel composant — ajouter des préprocesseurs personnalisés, intégrer des API externes en tant qu'outils, ou changer de fournisseur de LLM — tout en utilisant Docker et les outils CLI pour un prototypage rapide et le déploiement en production.
  • Cadre open-source pour construire des chatbots IA prêts pour la production avec mémoire personnalisable, recherche vectorielle, dialogue multi-tours et support de plugins.
    0
    0
    Qu'est-ce que Stellar Chat ?
    Stellar Chat permet aux équipes de créer des agents d'IA conversationnelle en fournissant un cadre robuste qui abstrait les interactions LLM, la gestion de la mémoire et l'intégration d'outils. Au cœur, il présente un pipeline extensible qui gère le prétraitement des entrées utilisateur, l'enrichissement du contexte via la récupération de mémoire basée sur des vecteurs, et l'invocation de LLM avec des stratégies de prompting configurables. Les développeurs peuvent utiliser des solutions de stockage vectoriel populaires comme Pinecone, Weaviate ou FAISS, et intégrer des API tierces ou des plugins personnalisés pour des tâches comme la recherche Web, les requêtes à la base de données ou le contrôle d'applications d'entreprise. Avec un support pour la sortie en streaming et des boucles de rétroaction en temps réel, Stellar Chat garantit des expériences utilisateur réactives. Il inclut également des modèles de départ et des exemples de bonnes pratiques pour les bots d'assistance client, la recherche de connaissances et l'automatisation des flux de travail internes. Déployé avec Docker ou Kubernetes, il évolue pour répondre aux exigences de production tout en restant entièrement open-source sous licence MIT.
  • Taiga est un framework d'agent IA open-source permettant de créer des agents LLM autonomes avec extensibilité par plugins, mémoire et intégration d'outils.
    0
    0
    Qu'est-ce que Taiga ?
    Taiga est un framework d'agent IA open-source basé sur Python conçu pour simplifier la création, l'orchestration et le déploiement d'agents autonomes utilisant de grands modèles de langage (LLM). Le framework comprend un système de plugins flexible pour l'intégration d'outils personnalisés et d'APIs externes, un module de mémoire configurable pour gérer le contexte conversationnel à court et long terme, et un mécanisme de chaînage de tâches pour séquencer des flux de travail à plusieurs étapes. Taiga offre également une journalisation intégrée, des métriques et une gestion des erreurs pour une utilisation en production. Les développeurs peuvent rapidement créer des agents avec des modèles, étendre la fonctionnalité via SDK, et déployer sur différentes plateformes. En abstraisant la complexité de l'orchestration, Taiga permet aux équipes de se concentrer sur la création d'assistants intelligents capables de rechercher, planifier et exécuter des actions sans intervention manuelle.
  • Une architecture extensible pour agents IA pour concevoir, tester et déployer des flux de travail multi-agents avec des compétences personnalisées.
    0
    0
    Qu'est-ce que ByteChef ?
    ByteChef offre une architecture modulaire pour construire, tester et déployer des agents IA. Les développeurs définissent des profils d'agents, attachent des plugins de compétences personnalisés et orchestrent des flux multi-agents via une IDE web visuelle ou SDK. Elle s'intègre avec les principaux fournisseurs de LLM (OpenAI, Cohere, modèles auto-hébergés) et API externes. Des outils intégrés de débogage, journalisation et observabilité facilitent les itérations. Les projets peuvent être déployés en tant que services Docker ou fonctions sans serveur, permettant des agents IA évolutifs et prêts pour la production pour l'assistance client, l'analyse de données et l'automatisation.
  • Un backend modulaire FastAPI permettant l'extraction et l'analyse automatisées de documents à l'aide de Google Document AI et OCR.
    0
    0
    Qu'est-ce que DocumentAI-Backend ?
    DocumentAI-Backend est un framework backend léger qui automatise l'extraction de texte, de champs de formulaire et de données structurées à partir de documents. Il offre des points de terminaison API REST pour télécharger des PDFs ou des images, les traiter via Google Document AI avec fallback OCR, et renvoyer les résultats analysés en JSON. Construit avec Python, FastAPI et Docker, il permet une intégration rapide dans des systèmes existants, des déploiements évolutifs et une personnalisation via des pipelines et middleware configurables.
  • Une plateforme Python open-source pour les agents AI permettant une exécution autonome basée sur LLM avec des outils et une mémoire personnalisables.
    0
    0
    Qu'est-ce que OCO-Agent ?
    OCO-Agent exploite des modèles linguistiques compatibles OpenAI pour transformer des invites en processus exploitables. Il offre un système de plugins flexible pour intégrer API externes, commandes shell et routines de traitement de données. Le framework conserve l'historique de conversation et le contexte en mémoire, permettant des tâches longues et multi-étapes. Avec une interface CLI et une prise en charge de Docker, OCO-Agent accélère la prototypage et le déploiement d'assistants intelligents pour les opérations, l'analyse et la productivité des développeurs.
Vedettes