人気のDocker deploymentツール

高評価のDocker deploymentツールをピックアップし、実際のユーザー体験に基づいたランキングをお届けします。

Docker deployment

  • メモリ、ツール、多モデル対応を備えたAIエージェントを構築・オーケストレーション・展開するオープンソースのPythonフレームワーク。
    0
    0
    Agentfyとは?
    Agentfyは、LLM、メモリバックエンド、ツール統合を組み合わせて一体的なランタイムを構築するモジュール式アーキテクチャを提供します。開発者はPythonクラスでエージェントの動作を宣言し、ツール(REST API、データベース、ユーティリティ)を登録し、メモリストア(ローカル、Redis、SQL)を選択します。フレームワークは、プロンプト、アクション、ツール呼び出し、コンテキスト管理をオーケストレーションし、タスクの自動化を実現します。内蔵のCLIとDockerサポートにより、クラウドやエッジ環境にワンステップで展開可能です。
  • 多様なAIエージェントを検索、探索、展開できるウェブプラットフォームで、検索可能なカテゴリを備えた統合マーケットプレイス。
    0
    0
    AI Agent Marketplaceとは?
    AI Agent MarketplaceはNext.jsとReactを用いて構築されており、ユーザーがさまざまなAIエージェントを検索、評価、展開できる中心的なハブを提供します。プラットフォームはコミュニティからの貢献によるエージェントのメタデータを抽出し、詳細な説明、能力タグ、ブラウザ上のライブデモを提供します。ユーザーはドメイン、機能、技術提供者でエージェントをフィルタリング可能です。開発者向けに、モジュール化されたアーキテクチャで、新規エージェントの追加、APIエンドポイントの設定、UIコンポーネントのカスタマイズをサポートします。展開方法はVercelまたはローカルのDockerコンテナを含みます。多様なAIエージェントプロジェクトを一つの検索可能なインターフェースにまとめることで、試験、コラボレーション、運用ワークフローへの統合を加速します。
  • オープンソースのAIエンジンで、テキストプロンプトから魅力的な30秒動画を生成します。テキストから動画、TTS、および編集を使用します。
    0
    0
    AI Short Video Engineとは?
    AI-Short-Video-Engineは、多数のAIモジュールをエンドツーエンドのパイプラインで調整し、ユーザー定義のテキストプロンプトから洗練された短い動画に変換します。まず、システムは大規模言語モデルを利用してストーリーボードとスクリプトを生成します。次に、Stable Diffusionがシーンのアートワークを作成し、barkがリアルな音声ナレーションを提供します。エンジンは、画像、テキストのオーバーレイ、音声を組み合わせて一体化した動画を作り、トランジションと背景音楽を自動的に追加します。プラグインベースのアーキテクチャにより、各段階のカスタマイズ(例:代替のテキストから画像またはTTSモデルの切り替え、動画解像度やスタイルテンプレートの調整)が可能です。DockerまたはネイティブのPythonを用いて展開されており、CLIコマンドとRESTful APIエンドポイントの両方を提供し、開発者がAI駆動の動画制作を既存のワークフローにシームレスに統合できます。
  • Aladinは、スクリプト化されたワークフロー、メモリ対応の意思決定、およびプラグインベースのタスクオーケストレーションを可能にするオープンソースの自律型LLMエージェントです。
    0
    0
    Aladinとは?
    Aladinは、大規模言語モデル(LLMs)によって動作する自律型エージェントを定義できるモジュール式のアーキテクチャを提供します。各エージェントは、SQLiteやインメモリなどのメモリバックエンドをロードし、動的プロンプトテンプレートを利用し、外部API呼び出しやローカルコマンド実行のためのカスタムプラグインを統合できます。高レベルの目標をシーケンス化されたアクションに分解し、順次実行し、LLMのフィードバックに基づいて反復するタスクプランナーを備えています。設定はYAMLファイルと環境変数で管理され、さまざまなユースケースに適応可能です。ユーザーはDocker ComposeまたはpipによるインストールでAladinを展開できます。CLIとFastAPIに基づくHTTPエンドポイントにより、エージェントのトリガー、実行の監視、およびメモリ状態の検査が可能で、CI/CDパイプライン、チャットインターフェース、またはカスタムダッシュボードとの統合を促進します。
  • 依存関係を内蔵した自律型GPTエージェントを迅速に展開・オーケストレーションするDockerベースのフレームワークです。
    0
    0
    Kurtosis AutoGPT Packageとは?
    Kurtosis AutoGPTパッケージは、最小限の労力で完全に構成されたAutoGPT環境を提供するKurtosisモジュールとしてパッケージ化されたAIエージェントフレームワークです。PostgreSQL、Redis、ベクトルストアなどのサービスを準備し、APIキーとエージェントスクリプトをネットワークに注入します。DockerとKurtosis CLIを使用して、隔離されたエージェントインスタンスを起動し、ログを確認し、予算を調整し、ネットワークポリシーを管理できます。このパッケージはインフラの負担を排除し、チームが迅速に自律的なGPT駆動のワークフローを再現可能な状態で開発、テスト、スケールできるようにします。
  • 機械学習の知識がなくてもAIモデルを簡単に統合できます。
    0
    0
    Cargoshipとは?
    Cargoshipは、機械学習の専門知識を必要とせずに、アプリケーションにAIを統合するための合理化されたソリューションを提供します。便利にDockerコンテナにパッケージされたオープンソースのAIモデルのコレクションから選択します。コンテナを実行することにより、モデルを容易に展開し、よく文書化されたAPIを介してアクセスできます。これにより、どのスキルレベルの開発者でも、ソフトウェアに高度なAI機能を組み込むのが容易になり、開発時間の短縮と複雑さの低減が実現します。
  • プライバシーとユーザーエクスペリエンスに重点を置いた無料でオープンソースのChatGPT用UI。
    0
    0
    Chatpad AIとは?
    Chatpad AIは、ChatGPT体験を向上させる無料でオープンソースのチャットユーザーインターフェースです。洗練された使いやすさとプライバシーに配慮した環境を提供し、ユーザーがシームレスに会話を行い、リクエストを容易に作成できるようにします。Dockerを使用して自己ホストされているため、ユーザーは自分のデータを完全に制御できます。カスタム構成を使用した自己ホスティングやワンクリックデプロイを利用することで、Chatpad AIは柔軟性や使いやすさを提供し、安全でユーザーフレンドリーな方法でChatGPTと対話したい人にとって素晴らしい選択肢となります。
  • ClassiCore-PublicはML分類を自動化し、データ前処理、モデル選択、ハイパーパラメータ調整、スケーラブルなAPI展開を提供します。
    0
    0
    ClassiCore-Publicとは?
    ClassiCore-Publicは分類モデルの構築、最適化、展開のための包括的な環境を提供します。直感的なパイプラインビルダーは、生データの取り込み、クリーニング、特徴エンジニアリングを処理します。内蔵のモデル zooには、ランダムフォレスト、SVM、深層学習アーキテクチャなどが含まれます。ベイズ最適化を用いた自動ハイパーパラメータチューニングにより最適な設定を見つけます。訓練済みモデルはRESTful APIまたはマイクロサービスとして展開でき、パフォーマンスをリアルタイムで監視するダッシュボードも提供します。拡張可能なプラグインにより、カスタム前処理や可視化、新しい展開ターゲットを追加でき、産業規模の分類タスクに最適です。
  • Co-Sightは、物体検出、追跡、分散推論のためのリアルタイムビデオ解析を提供するオープンソースのAIフレームワークです。
    0
    0
    Co-Sightとは?
    Co-Sightは、リアルタイムビデオ解析ソリューションの開発と展開を簡素化するオープンソースのAIフレームワークです。ビデオデータの取り込み、前処理、モデルの訓練、エッジとクラウド上の分散推論のためのモジュールを提供します。オブジェクト検出、分類、追跡、およびパイプラインのオーケストレーションをサポートし、低遅延処理と高スループットを実現します。モジュール式設計により、人気のディープラーニングライブラリとの統合やKubernetesを用いたシームレスなスケーリングが可能です。ユーザーはYAMLでパイプラインを定義し、Dockerを用いてデプロイし、ウェブダッシュボードでパフォーマンスを監視できます。Co-Sightは、高度なビジョンアプリケーション(スマートシティ監視、インテリジェントな交通、産業品質検査)の構築を支援し、開発時間と運用の複雑さを削減します。
  • CrewAIエージェントジェネレーターは、事前に作成されたテンプレート、シームレスなAPI統合、および展開ツールを備えて、カスタマイズされたAIエージェントを迅速にスキャフォールドします。
    0
    0
    CrewAI Agent Generatorとは?
    CrewAIエージェントジェネレーターは、コマンドラインインターフェースを活用して、新しいAIエージェントプロジェクトを導入します。意見の分かれるフォルダ構造、サンプルプロンプトテンプレート、ツール定義、テストスタブを備えています。OpenAI、Azure、またはカスタムLLMエンドポイントへの接続設定が可能で、ベクトルストアを使用したエージェントのメモリ管理、多数のエージェントを協調させるワークフローの調整、詳細な会話ログの閲覧、Vercel、AWS Lambda、Dockerへの展開が可能なビルトインスクリプトで迅速な開発と一貫したアーキテクチャを確保します。
  • DockerイメージをGoogle Cloud Runに簡単にデプロイできます。
    0
    0
    Deploudとは?
    Deploudは、DockerイメージをGoogle Cloud Runに迅速にデプロイするために設計された強力なプラットフォームです。Deploudを使用することで、ユーザーは自動化されたスクリプト生成の恩恵を受け、アプリケーションをシームレスにデプロイできます。このサービスは、インフラストラクチャコードの複雑さを管理することでプロセスを簡素化し、素晴らしいアプリケーションの構築に集中できるようにします。確認済みのデプロイスクリプトを生成し、開発者にとってより効率的なワークフローを作成します。
  • 複数のAIエージェントがJSONメッセージを介して複雑なタスクを協力して行うことを可能にするオープンソースフレームワーク。
    0
    0
    Multi AI Agent Systemsとは?
    このフレームワークは、ユーザーが中央のオーケストレーターを介してJSONメッセージで通信する複数のAIエージェントを設計、構成、展開できるようにします。各エージェントは異なる役割、プロンプト、メモリモジュールを持つことができ、プロバイダーインターフェースを実装することで任意のLLMプロバイダーを組み込めます。システムは持続可能な会話履歴、動的ルーティング、モジュール式拡張をサポートします。議論のシミュレーション、カスタマーサポートフローの自動化、マルチステップのドキュメント生成の調整に最適で、Pythonで動作し、Dockerサポートもあります。
  • コンテキスト管理機能を備えた拡張性のあるマルチチャネル会話AIエージェントを構築するためのPythonフレームワーク。
    0
    0
    Multiple MCP Server-based AI Agent BOTとは?
    このフレームワークは、複数のMCP(マルチチャネル処理)サーバーをサポートするサーバーベースのアーキテクチャを提供し、同時会話の処理、セッション間のコンテキスト維持、外部サービスとのプラグイン統合を可能にします。開発者はメッセージングプラットフォームのコネクタを設定し、カスタム関数呼び出しを定義し、Dockerやネイティブホストを使用してインスタンスをスケールできます。ロギング、エラーハンドリング、拡張可能なパイプラインも備え、コアコードを変更せずに機能拡張が可能です。
  • OmniMind0は、ビルトインのメモリ管理とプラグイン統合を備えた、自律型マルチエージェントワークフローを可能にするオープンソースのPythonフレームワークです。
    0
    0
    OmniMind0とは?
    OmniMind0は、Pythonで書かれた包括的なエージェントベースのAIフレームワークであり、複数の自律エージェントの作成とオーケストレーションを可能にします。各エージェントは、データ取得、要約、意思決定などの特定のタスクを処理するように設定でき、RedisやJSONファイルなどのプラグイン可能なメモリバックエンドを通じて状態を共有します。内蔵のプラグインアーキテクチャは、外部APIやカスタムコマンドで機能を拡張でき、OpenAI、Azure、Hugging Faceのモデルをサポートし、CLI、REST APIサーバー、またはDockerを通じて柔軟にワークフローに統合できます。
  • RAGAppは、ベクターデータベース、LLM、ツールチェーンをローコードフレームワークに統合し、検索強化型チャットボットの構築を簡素化します。
    0
    0
    RAGAppとは?
    RAGAppは、FAISS、Pinecone、Chroma、Qdrantなどの人気ベクターデータベースや、OpenAI、Anthropic、Hugging Faceなどの大規模言語モデルとの即時利用可能な統合を提供し、RAGパイプライン全体を簡素化します。ドキュメントを埋め込みに変換するデータ取り込みツール、正確な知識選択を可能にするコンテキスト認識型検索メカニズム、展開用のチャットUIまたはREST APIサーバーを備えます。開発者は、カスタムプリプロセッサの追加、外部APIのツール化、LLMプロバイダーの差し替えなど、任意のコンポーネントを容易に拡張または置き換え可能で、DockerやCLIツールを使った高速プロトタイピングと本番展開を実現します。
  • カスタマイズ可能なメモリ、ベクトル検索、多ターン対話、プラグインサポートを備えた本番環境向けAIチャットボット構築のためのオープンソースフレームワーク。
    0
    0
    Stellar Chatとは?
    Stellar Chatは、LLMの操作、メモリ管理、ツール統合を抽象化する堅牢なフレームワークを提供し、会話型AIエージェントの構築を支援します。中心となる拡張可能なパイプラインは、ユーザー入力の前処理、ベクトルベースのメモリリトリーブによるコンテキストの拡充、設定可能なプロンプト戦略を用いたLLM呼び出しを扱います。開発者は、Pinecone、Weaviate、FAISSなどの一般的なベクトルストレージをプラグインし、Web検索、データベースクエリ、エンタープライズアプリケーション制御などの外部APIやカスタムプラグインと連携可能です。ストリーミング出力とリアルタイムフィードバックループのサポートにより、レスポンシブなユーザー体験を保証します。顧客サポートボット、知識検索、内部ワークフローの自動化のためのスターターテンプレートとベストプラクティス例も含まれ、DockerまたはKubernetesでの展開により、耐久性を持って本番環境の要求に応えます。
  • Taigaは、プラグイン拡張性、メモリ、ツール統合を備えた自律型LLMエージェントの作成を可能にするオープンソースのAIエージェントフレームワークです。
    0
    0
    Taigaとは?
    Taigaは、オートノマスな大規模言語モデル(LLM)エージェントの作成、調整、展開を促進するためのPythonベースのオープンソースAIエージェントフレームワークです。このフレームワークには、カスタムツールや外部APIを統合するための柔軟なプラグインシステム、長期および短期の会話コンテキストを管理するための設定可能なメモリモジュール、複数ステップのワークフローを順次実行するタスク連鎖機構が含まれています。さらに、ビルトインのロギング、指標、エラーハンドリングにより、プロダクション環境に適した運用が可能です。開発者は、テンプレートを使ってエージェントの下地を素早く作成し、SDKを通じて機能を拡張し、様々なプラットフォームに展開できます。複雑なオーケストレーションロジックを抽象化することで、チームは研究、計画、行動を手動なしに実行できる知的アシスタントの構築に集中できます。
  • カスタムスキルを備えたマルチエージェントワークフローの設計、テスト、展開のための拡張可能なAIエージェントフレームワーク。
    0
    0
    ByteChefとは?
    ByteChefは、AIエージェントを構築、テスト、展開するためのモジュールアーキテクチャを提供します。開発者はエージェントプロファイルを定義し、カスタムスキルプラグインを添付し、ビジュアルWeb IDEまたはSDKを使用してマルチエージェントワークフローを調整します。主要なLLMプロバイダー(OpenAI、Cohere、自ホストモデル)や外部APIと連携します。内蔵のデバッグ、ロギング、可観測性ツールにより反復が容易になります。プロジェクトはDockerサービスやサーバーレス関数として展開でき、スケーラブルな商用のAIエージェントを顧客サポート、データ分析、自動化に利用可能です。
  • Google Document AIとOCRを使用した自動ドキュメントデータ抽出と解析を可能にするモジュール式FastAPIバックエンド。
    0
    0
    DocumentAI-Backendとは?
    DocumentAI-Backendは、ドキュメントからのテキスト、フォームフィールド、構造化データの抽出を自動化する軽量なバックエンドフレームワークです。PDFや画像をアップロードするREST APIエンドポイントを提供し、Google Document AIとOCRフォールバックを使用して処理し、解析結果をJSONで返します。Python、FastAPI、およびDockerを使用して構築されており、既存システムへの迅速な統合、拡張可能なデプロイメント、設定可能なパイプラインやミドルウェアによるカスタマイズを可能にします。
  • カスタマイズ可能なツールとメモリを備えた自律型のLLM駆動タスク実行を可能にするオープンソースのPython AIエージェントフレームワーク。
    0
    0
    OCO-Agentとは?
    OCO-Agentは、OpenAI互換の言語モデルを利用して、プレーンテキストのプロンプトを実用的なワークフローに変換します。外部API、シェルコマンド、およびデータ処理ルーチンの統合に柔軟なプラグインシステムを提供します。フレームワークは会話履歴とコンテキストをメモリに保持し、長時間の複数ステップのタスクを可能にします。CLIインターフェースおよびDockerサポートにより、運用、分析、開発者の生産性向上のためのインテリジェントアシスタントのプロトタイピングと展開を加速させます。
フィーチャー