Einfache Docker deployment-Tools entdecken

Erleichtern Sie Ihre Arbeit mit intuitiven Docker deployment-Lösungen, die schnell und problemlos einsetzbar sind.

Docker deployment

  • Ein Open-Source-Python-Framework zum Erstellen, Orchestrieren und Bereitstellen von KI-Agenten mit Speicher, Tools und Multi-Model-Unterstützung.
    0
    0
    Was ist Agentfy?
    Agentfy bietet eine modulare Architektur für den Bau von KI-Agenten durch die Kombination von LLMs, Speicher-Backends und Tool-Integrationen zu einer kohäsiven Laufzeit. Entwickler deklarieren das Verhalten der Agenten mit Python-Klassen, registrieren Tools (REST-APIs, Datenbanken, Utilities) und wählen Speicherm stores (lokal, Redis, SQL). Das Framework orchestriert Prompts, Aktionen, Tool-Aufrufe und Kontextmanagement, um Aufgaben zu automatisieren. Eingebaute CLI und Docker-Unterstützung ermöglichen eine Ein-Schritt-Bereitstellung in Cloud-, Edge- oder Desktop-Umgebungen.
  • Eine Webplattform, um vielfältige KI-Agenten zu entdecken, zu erkunden und bereitzustellen, mit durchsuchbaren Kategorien in einem einheitlichen Marktplatz.
    0
    0
    Was ist AI Agent Marketplace?
    Der AI Agent Marketplace basiert auf Next.js und React, um einen zentralen Hub zu bieten, in dem Nutzer eine Vielzahl von KI-Agenten durchsuchen, bewerten und bereitstellen können. Die Plattform zieht Metadaten der Agenten aus Community-Beiträgen, bietet detaillierte Beschreibungen, Fähigkeitstags und Live-Demos im Browser. Nutzer können Agenten nach Domäne, Funktion oder Technologieanbieter filtern. Für Entwickler umfasst das Open-Source-Repository eine modulare Architektur mit Unterstützung für die Hinzufügung neuer Agenten, API-Endpunkt-Konfiguration und UI-Anpassungen. Bereitstellungsoptionen sind Hosting auf Vercel oder lokale Docker-Container. Durch die Konsolidierung verschiedener KI-Agenten-Projekte in eine durchsuchbare Oberfläche beschleunigt der Marktplatz Experimente, Zusammenarbeit und die Integration in Produktionsprozesse.
  • Eine Open-Source-KI-Engine, die ansprechende 30-sekündige Videos aus Texteingaben mit Text-zu-Video, TTS und Bearbeitung erstellt.
    0
    0
    Was ist AI Short Video Engine?
    AI-Short-Video-Engine orchestriert mehrere KI-Module in einer End-to-End-Pipeline, um benutzerdefinierte Texteingaben in fertiggestellte Kurzvideos umzuwandeln. Zuerst nutzt das System große Sprachmodelle, um Storyboard und Skript zu generieren. Danach erstellt Stable Diffusion Szenenbilder, während Bark realistische Sprachaufnahmen liefert. Die Engine fügt Bilder, Textüberlagerungen und Audio zu einem zusammenhängenden Video zusammen, wobei Übergänge und Hintergrundmusik automatisch hinzugefügt werden. Die pluginbasierte Architektur ermöglicht die Anpassung jeder Phase: vom Austausch alternativer Text-zu-Bild- oder TTS-Modelle bis zur Anpassung der Videoauflösung und Stilvorlagen. Bereitgestellt via Docker oder nativen Python, bietet es sowohl CLI-Befehle als auch RESTful-API-Endpunkte, um die Integration von KI-gesteuerter Videoproduktion in bestehende Arbeitsabläufe nahtlos zu gestalten.
  • Aladin ist eine Open-Source-Software für autonome LLM-Agenten, die skriptbasierte Workflows, speicherfähige Entscheidungsfindung und pluginbasierte Aufgabenorchestrierung ermöglicht.
    0
    0
    Was ist Aladin?
    Aladin bietet eine modulare Architektur, die Entwicklern die Definition autonomer Agenten auf Basis großer Sprachmodelle (LLMs) ermöglicht. Jeder Agent kann Speicher-Backends (z. B. SQLite, In-Memory) laden, dynamische Prompt-Vorlagen nutzen und benutzerdefinierte Plugins für externe API-Aufrufe oder lokale Befehle integrieren. Es verfügt über einen Aufgabenplaner, der High-Level-Ziele in sequentielle Aktionen aufteilt, diese in der Reihenfolge ausführt und basierend auf LLM-Feedback wiederholt. Die Konfiguration erfolgt über YAML-Dateien und Umgebungsvariablen, was die Anpassung an verschiedene Anwendungsfälle erleichtert. Nutzer können Aladin via Docker Compose oder Pip-Installation bereitstellen. Die CLI und FastAPI-basierte HTTP-Endpunkte ermöglichen es, Agenten auszulösen, die Ausführung zu überwachen und Speicherzustände zu inspizieren, was die Integration in CI/CD-Pipelines, Chat-Schnittstellen oder benutzerdefinierte Dashboards erleichtert.
  • Ein auf Docker basierendes Framework zur schnellen Bereitstellung und Orchestrierung autonomer GPT-Agenten mit integrierten Abhängigkeiten für reproduzierbare Entwicklungsumgebungen.
    0
    0
    Was ist Kurtosis AutoGPT Package?
    Das Kurtosis AutoGPT-Paket ist ein KI-Agenten-Framework, das als Kurtosis-Modul verpackt ist und eine vollständig konfigurierte AutoGPT-Umgebung mit minimalem Aufwand bereitstellt. Es stellt Dienste wie PostgreSQL, Redis und einen Vektorspeicher bereit und verbindet Ihre API-Schlüssel und Agentenskripte ins Netzwerk. Mit Docker und Kurtosis CLI können Sie isolierte Agenten-Instanzen starten, Protokolle einsehen, Budgets anpassen und Netzwerkrichtlinien verwalten. Dieses Paket beseitigt Infrastrukturbarrieren, sodass Teams schnell autonome GPT-gesteuerte Workflows entwickeln, testen und skalieren können.
  • Integrieren Sie KI-Modelle einfach ohne Kenntnisse im maschinellen Lernen.
    0
    0
    Was ist Cargoship?
    Cargoship bietet eine vereinfachte Lösung zur Integration von KI in Ihre Anwendungen, ohne dass Kenntnisse im maschinellen Lernen erforderlich sind. Wählen Sie aus unserer Sammlung von Open-Source-KI-Modellen, die bequem in Docker-Containern verpackt sind. Indem Sie den Container ausführen, können Sie die Modelle mühelos bereitstellen und über eine gut dokumentierte API darauf zugreifen. Dies erleichtert Entwicklern aller Fähigkeitsstufen, komplexe KI-Funktionen in ihre Software zu integrieren, wodurch die Entwicklungszeit verkürzt und die Komplexität reduziert wird.
  • Kostenlose, quelloffene Benutzeroberfläche für ChatGPT mit Fokus auf Datenschutz und Benutzererfahrung.
    0
    0
    Was ist Chatpad AI?
    Chatpad AI ist eine kostenlose und quelloffene Chat-Benutzeroberfläche, die das ChatGPT-Erlebnis verbessert. Sie bietet eine elegante, benutzerfreundliche und datenschutzorientierte Umgebung, die es den Nutzern ermöglicht, nahtlose Unterhaltungen zu führen und Anfragen mühelos zu erstellen. Selbst gehostet mit Docker, stellt es sicher, dass Nutzer die volle Kontrolle über ihre Daten haben. Ob durch selbst gehostete benutzerdefinierte Konfigurationen oder durch die Nutzung von Ein-Klick-Bereitstellungen, Chatpad AI bietet Flexibilität und Benutzerfreundlichkeit und ist eine ausgezeichnete Wahl für jeden, der sicher und benutzerfreundlich mit ChatGPT interagieren möchte.
  • ClassiCore-Public automatisiert ML-Klassifikation, bietet Datenvorverarbeitung, Modellauswahl, Hyperparameter-Optimierung und skalierbare API-Bereitstellung.
    0
    0
    Was ist ClassiCore-Public?
    ClassiCore-Public bietet eine umfassende Umgebung zum Erstellen, Optimieren und Bereitstellen von Klassifikationsmodellen. Es verfügt über einen intuitiven Pipeline-Builder, der rohen Datenimport, Reinigung und Feature-Engineering handhabt. Der integrierte Modell-Zoo umfasst Algorithmen wie Random Forests, SVMs und Deep-Learning-Architekturen. Automatisierte Hyperparameter-Optimierung nutzt Bayesian-Optimization, um optimale Einstellungen zu finden. Trainierte Modelle können als RESTful-APIs oder Microservices bereitgestellt werden, mit Überwachungs-Dashboards zur Echtzeit-Performance-Überwachung. Erweiterbare Plugins erlauben es Entwicklern, benutzerdefinierte Vorverarbeitung, Visualisierungen oder neue Bereitstellungsziele hinzuzufügen, was ClassiCore-Public ideal für industrielles Klassifikations-Scaling macht.
  • Co-Sight ist ein Open-Source-KI-Framework, das Echtzeit-Videoanalysen für Objekterkennung, Verfolgung und verteilte Inferenzen bietet.
    0
    0
    Was ist Co-Sight?
    Co-Sight ist ein Open-Source-KI-Framework, das die Entwicklung und Bereitstellung von Echtzeit-Videoanalyse-Lösungen vereinfacht. Es bietet Module für Video-Datenaufnahme, Vorverarbeitung, Modeltraining und verteilte Inferenz an Edge und Cloud. Mit integrierter Unterstützung für Objekterkennung, Klassifizierung, Verfolgung und Pipeline-Orchestrierung sorgt Co-Sight für niedrige Latenz und hohe Durchsatzleistung. Sein modulares Design integriert sich nahtlos mit gängigen Deep-Learning-Bibliotheken und skaliert problemlos mit Kubernetes. Entwickler können Pipelines via YAML definieren, mit Docker bereitstellen und die Leistung über ein Web-Dashboard überwachen. Co-Sight ermöglicht den Aufbau fortschrittlicher Vision-Anwendungen für die Überwachung intelligenter Städte, intelligenter Transport und industrielle Qualitätskontrolle, wodurch Entwicklungszeit und Betriebsaufwand reduziert werden.
  • CrewAI Agent Generator erstellt schnell maßgeschneiderte KI-Agenten mit vorgefertigten Vorlagen, nahtloser API-Integration und Deployment-Tools.
    0
    0
    Was ist CrewAI Agent Generator?
    CrewAI Agent Generator nutzt eine Befehlszeilenschnittstelle, um ein neues KI-Agenten-Projekt mit festen Ordnerstrukturen, Beispiel-Eingabeaufforderungen, Tool-Definitionen und Teststub zu initialisieren. Sie können Verbindungen zu OpenAI, Azure oder benutzerdefinierten LLM-Endpunkten konfigurieren; Agentenspeicher mit Vektor-Stores verwalten; mehrere Agenten in kollaborativen Workflows orchestrieren; detaillierte Gesprächsprotokolle anzeigen; und Ihre Agenten mit integrierten Skripten auf Vercel, AWS Lambda oder Docker bereitstellen. Es beschleunigt die Entwicklung und sorgt für einheitliche Architektur in KI-Agenten-Projekten.
  • Setzen Sie Ihr Docker-Image mühelos in Google Cloud Run ein.
    0
    0
    Was ist Deploud?
    Deploud ist eine leistungsstarke Plattform, die für die schnelle Bereitstellung von Docker-Images auf Google Cloud Run entwickelt wurde. Mit Deploud profitieren Benutzer von der automatischen Generierung von Skripten, die es ihnen ermöglicht, ihre Anwendungen nahtlos bereitzustellen. Der Service vereinfacht den Prozess, indem er die Komplexität des Infrastrukturcodes übernimmt und Ihnen ermöglicht, sich auf die Entwicklung großartiger Anwendungen zu konzentrieren. Er generiert verifiziertes Bereitstellungsskripte, die einwandfrei funktionieren und einen effizienteren Workflow für Entwickler schaffen.
  • Ein Open-Source-Framework, das die Erstellung und Orchestrierung mehrerer KI-Agenten ermöglicht, die bei komplexen Aufgaben über JSON-Nachrichten zusammenarbeiten.
    0
    0
    Was ist Multi AI Agent Systems?
    Dieses Framework ermöglicht es Nutzern, mehrere KI-Agenten zu entwerfen, zu konfigurieren und zu deployen, die über einen zentralen Orchestrator mittels JSON-Nachrichten kommunizieren. Jeder Agent kann unterschiedliche Rollen, Eingabeaufforderungen und Speichermodule haben, wobei beliebige LLM-Anbieter durch die Implementierung einer Anbieter-Schnittstelle integriert werden können. Das System unterstützt persistente Konversationsverläufe, dynamisches Routing und modulare Erweiterungen. Ideal für die Simulation von Debatten, die Automatisierung von Kundenservice-Workflows oder die Koordination von mehrstufigen Dokumentengenerierungen. Es läuft in Python und bietet Docker-Unterstützung für containerisierte Deployments.
  • Ein Python-Framework zum Aufbau skalierbarer Multi-Channel-Konversation-AI-Agenten mit Kontextverwaltung.
    0
    0
    Was ist Multiple MCP Server-based AI Agent BOT?
    Dieses Framework bietet eine serverbasierte Architektur, die Multiple-MCP (Multi-Channel Processing) Server unterstützt, um gleichzeitige Gespräche zu verwalten, Kontext über Sitzungen hinweg aufrechtzuerhalten und externe Dienste über Plugins zu integrieren. Entwickler können Konnektoren für Messaging-Plattformen konfigurieren, benutzerdefinierte Funktionsaufrufe definieren und Instanzen mit Docker oder nativen Hosts skalieren. Es umfasst Logging, Fehlerbehandlung und eine modulare Pipeline, um Fähigkeiten ohne Änderungen am Kerncode zu erweitern.
  • OmniMind0 ist ein Open-Source-Python-Framework, das autonome Multi-Agenten-Workflows mit integriertem Speicher-Management und Plugin-Integration ermöglicht.
    0
    0
    Was ist OmniMind0?
    OmniMind0 ist ein umfassendes, agentenbasiertes KI-Framework in Python, das die Erstellung und Orchestrierung mehrerer autonomer Agenten ermöglicht. Jeder Agent kann so konfiguriert werden, dass er spezifische Aufgaben übernimmt — wie Datenabruf, Zusammenfassung oder Entscheidungsfindung — während sie den Zustand über pluggable Speicher-Backends wie Redis oder JSON-Dateien teilen. Die integrierte Plugin-Architektur ermöglicht die Erweiterung der Funktionalität mit externen APIs oder benutzerdefinierten Befehlen. Es unterstützt Modelle von OpenAI, Azure und Hugging Face und bietet Einsatzmöglichkeiten über CLI, REST-API-Server oder Docker für flexible Integration in Ihre Workflows.
  • RAGApp vereinfacht den Aufbau retrieval-gestützter Chatbots durch die Integration von Vektordatenbanken, LLMs und Toolchains in einem Low-Code-Framework.
    0
    0
    Was ist RAGApp?
    RAGApp ist darauf ausgelegt, die gesamte RAG-Pipeline zu vereinfachen, indem es sofort einsatzbereite Integrationen mit beliebten Vektordatenbanken (FAISS, Pinecone, Chroma, Qdrant) und großen Sprachmodellen (OpenAI, Anthropic, Hugging Face) bietet. Es umfasst Tools zur Datenaufnahme, die Dokumente in Embeddings umwandeln, kontextbezogene Retrieval-Mechanismen für präzise Wissensauswahl sowie einen integrierten Chat-UI oder REST-API-Server für die Bereitstellung. Entwickler können Komponenten leicht erweitern oder austauschen — z.B. durch benutzerdefinierte Pre-Processor, externe APIs als Tools oder Anbieter von LLMs — und dabei Docker sowie CLI-Tools für schnelle Prototypenentwicklung und Produktion nutzen.
  • Open-Source-Framework zum Erstellen produktionsbereiter KI-Chatbots mit anpassbarem Speicher, Vektorsuche, Mehrfach-Dialogen und Plugin-Unterstützung.
    0
    0
    Was ist Stellar Chat?
    Stellar Chat befähigt Teams, Konversations-KI-Agenten zu erstellen, indem es ein robustes Framework bereitstellt, das LLM-Interaktionen, Speicherverwaltung und Tool-Integrationen abstrahiert. Im Kern verfügt es über eine erweiterbare Pipeline, die die Vorverarbeitung von Benutzereingaben, die Kontextanreicherung durch vektorbasierte Speicherabrufe und die LLM-Invokation mit konfigurierbaren Prompt-Strategien steuert. Entwickler können beliebte Vektorspeicherlösungen wie Pinecone, Weaviate oder FAISS integrieren und Drittanbieter-APIs oder eigene Plugins für Websuche, Datenbankabfragen oder Unternehmensanwendungen nutzen. Mit Unterstützung für Streaming-Ausgaben und Echtzeit-Feedback-Schleifen sorgt Stellar Chat für reaktionsschnelle Nutzererlebnisse. Es enthält auch Starter-Vorlagen und Best-Practice-Beispiele für Kundenservice-Bots, Wissens-Suche und interne Automatisierung. Mit Docker oder Kubernetes bereitgestellt, skaliert es, um den Produktionsanforderungen gerecht zu werden und bleibt unter der MIT-Lizenz vollständig Open-Source.
  • Taiga ist ein Open-Source-KI-Agenten-Framework, das die Erstellung autonomer LLM-Agenten mit Plugin-Erweiterbarkeit, Speicher und Tool-Integration ermöglicht.
    0
    0
    Was ist Taiga?
    Taiga ist ein auf Python basiertes Open-Source-KI-Agenten-Framework, das die Erstellung, Orchestrierung und den Einsatz autonomer Large Language Model (LLM)-Agenten erleichtert. Das Framework umfasst ein flexibles Plugin-System für die Integration benutzerdefinierter Tools und externer APIs, ein konfigurierbares Speicher-Modul zur Verwaltung des Langzeit- und Kurzzeit-Dialogkontexts sowie einen Task-Chaining-Mechanismus zur Sequenzierung von Multi-Schritt-Workflows. Taiga bietet außerdem integriertes Logging, Metriken und Fehlerbehandlung für Produktionsbereitschaft. Entwickler können schnell Agenten mit Vorlagen erstellen, Funktionalitäten über SDK erweitern und plattformübergreifend bereitstellen. Durch die Abstraktion komplexer Orchestrierungslogik ermöglicht Taiga Teams, intelligente Assistenten zu entwickeln, die recherchieren, planen und Aktionen ohne manuelles Eingreifen ausführen können.
  • Ein erweiterbares KI-Agenten-Framework zum Entwerfen, Testen und Bereitstellen von Multi-Agenten-Workflows mit benutzerdefinierten Fähigkeiten.
    0
    0
    Was ist ByteChef?
    ByteChef bietet eine modulare Architektur zum Erstellen, Testen und Bereitstellen von KI-Agenten. Entwickler definieren Agentenprofile, fügen benutzerdefinierte Skill-Plugins an und orchestrieren Multi-Agenten-Workflows über eine visuelle Web-IDE oder SDK. Es integriert sich mit großen LLM-Anbietern (OpenAI, Cohere, selbstgehostete Modelle) und externen APIs. Eingebaute Debugging-, Logging- und Überwachungstools beschleunigen die Iteration. Projekte können als Docker-Services oder serverlose Funktionen bereitgestellt werden, um skalierbare, produktionsbereite KI-Agenten für Kundensupport, Datenanalyse und Automatisierung zu ermöglichen.
  • Ein modularer FastAPI-Backend, der die automatisierte Dokumentdatenextraktion und -analyse mit Google Document AI und OCR ermöglicht.
    0
    0
    Was ist DocumentAI-Backend?
    DocumentAI-Backend ist ein leichtgewichtiges Backend-Framework, das die Extraktion von Text, Formularfeldern und strukturierten Daten aus Dokumenten automatisiert. Es bietet REST-API-Endpunkte zum Hochladen von PDFs oder Bildern, verarbeitet sie mit Google Document AI und OCR-Fallback und gibt geparste Ergebnisse im JSON-Format zurück. Entwickelt mit Python, FastAPI und Docker, ermöglicht es eine schnelle Integration in bestehende Systeme, skalierbare Deployments und Anpassungen durch konfigurierbare Pipelines und Middleware.
  • Ein Open-Source-Python-Framework für KI-Agenten, das autonomen Aufgaben durch LLM-getriebene Ausführung mit anpassbaren Werkzeugen und Speicher ermöglicht.
    0
    0
    Was ist OCO-Agent?
    OCO-Agent nutzt OpenAI-kompatible Sprachmodelle, um einfache Eingabeaufforderungen in ausführbare Arbeitsabläufe zu transformieren. Es bietet ein flexibles Plugin-System für die Integration externer APIs, Shell-Befehle und Datenverarbeitungsroutinen. Das Framework hält Gesprächshistorie und Kontext im Speicher, was lang laufende, mehrstufige Aufgaben ermöglicht. Mit einer CLI-Schnittstelle und Docker-Unterstützung beschleunigt OCO-Agent die Prototypenentwicklung und den Einsatz intelligenter Assistenten für Betrieb, Analytik und Entwicklerproduktivität.
Ausgewählt