人気のDocker部署ツール

高評価のDocker部署ツールをピックアップし、実際のユーザー体験に基づいたランキングをお届けします。

Docker部署

  • 複数のAIエージェントがJSONメッセージを介して複雑なタスクを協力して行うことを可能にするオープンソースフレームワーク。
    0
    0
    Multi AI Agent Systemsとは?
    このフレームワークは、ユーザーが中央のオーケストレーターを介してJSONメッセージで通信する複数のAIエージェントを設計、構成、展開できるようにします。各エージェントは異なる役割、プロンプト、メモリモジュールを持つことができ、プロバイダーインターフェースを実装することで任意のLLMプロバイダーを組み込めます。システムは持続可能な会話履歴、動的ルーティング、モジュール式拡張をサポートします。議論のシミュレーション、カスタマーサポートフローの自動化、マルチステップのドキュメント生成の調整に最適で、Pythonで動作し、Dockerサポートもあります。
  • コンテキスト管理機能を備えた拡張性のあるマルチチャネル会話AIエージェントを構築するためのPythonフレームワーク。
    0
    0
    Multiple MCP Server-based AI Agent BOTとは?
    このフレームワークは、複数のMCP(マルチチャネル処理)サーバーをサポートするサーバーベースのアーキテクチャを提供し、同時会話の処理、セッション間のコンテキスト維持、外部サービスとのプラグイン統合を可能にします。開発者はメッセージングプラットフォームのコネクタを設定し、カスタム関数呼び出しを定義し、Dockerやネイティブホストを使用してインスタンスをスケールできます。ロギング、エラーハンドリング、拡張可能なパイプラインも備え、コアコードを変更せずに機能拡張が可能です。
  • OmniMind0は、ビルトインのメモリ管理とプラグイン統合を備えた、自律型マルチエージェントワークフローを可能にするオープンソースのPythonフレームワークです。
    0
    0
    OmniMind0とは?
    OmniMind0は、Pythonで書かれた包括的なエージェントベースのAIフレームワークであり、複数の自律エージェントの作成とオーケストレーションを可能にします。各エージェントは、データ取得、要約、意思決定などの特定のタスクを処理するように設定でき、RedisやJSONファイルなどのプラグイン可能なメモリバックエンドを通じて状態を共有します。内蔵のプラグインアーキテクチャは、外部APIやカスタムコマンドで機能を拡張でき、OpenAI、Azure、Hugging Faceのモデルをサポートし、CLI、REST APIサーバー、またはDockerを通じて柔軟にワークフローに統合できます。
  • RAGAppは、ベクターデータベース、LLM、ツールチェーンをローコードフレームワークに統合し、検索強化型チャットボットの構築を簡素化します。
    0
    0
    RAGAppとは?
    RAGAppは、FAISS、Pinecone、Chroma、Qdrantなどの人気ベクターデータベースや、OpenAI、Anthropic、Hugging Faceなどの大規模言語モデルとの即時利用可能な統合を提供し、RAGパイプライン全体を簡素化します。ドキュメントを埋め込みに変換するデータ取り込みツール、正確な知識選択を可能にするコンテキスト認識型検索メカニズム、展開用のチャットUIまたはREST APIサーバーを備えます。開発者は、カスタムプリプロセッサの追加、外部APIのツール化、LLMプロバイダーの差し替えなど、任意のコンポーネントを容易に拡張または置き換え可能で、DockerやCLIツールを使った高速プロトタイピングと本番展開を実現します。
  • カスタマイズ可能なメモリ、ベクトル検索、多ターン対話、プラグインサポートを備えた本番環境向けAIチャットボット構築のためのオープンソースフレームワーク。
    0
    0
    Stellar Chatとは?
    Stellar Chatは、LLMの操作、メモリ管理、ツール統合を抽象化する堅牢なフレームワークを提供し、会話型AIエージェントの構築を支援します。中心となる拡張可能なパイプラインは、ユーザー入力の前処理、ベクトルベースのメモリリトリーブによるコンテキストの拡充、設定可能なプロンプト戦略を用いたLLM呼び出しを扱います。開発者は、Pinecone、Weaviate、FAISSなどの一般的なベクトルストレージをプラグインし、Web検索、データベースクエリ、エンタープライズアプリケーション制御などの外部APIやカスタムプラグインと連携可能です。ストリーミング出力とリアルタイムフィードバックループのサポートにより、レスポンシブなユーザー体験を保証します。顧客サポートボット、知識検索、内部ワークフローの自動化のためのスターターテンプレートとベストプラクティス例も含まれ、DockerまたはKubernetesでの展開により、耐久性を持って本番環境の要求に応えます。
  • カスタムスキルを備えたマルチエージェントワークフローの設計、テスト、展開のための拡張可能なAIエージェントフレームワーク。
    0
    0
    ByteChefとは?
    ByteChefは、AIエージェントを構築、テスト、展開するためのモジュールアーキテクチャを提供します。開発者はエージェントプロファイルを定義し、カスタムスキルプラグインを添付し、ビジュアルWeb IDEまたはSDKを使用してマルチエージェントワークフローを調整します。主要なLLMプロバイダー(OpenAI、Cohere、自ホストモデル)や外部APIと連携します。内蔵のデバッグ、ロギング、可観測性ツールにより反復が容易になります。プロジェクトはDockerサービスやサーバーレス関数として展開でき、スケーラブルな商用のAIエージェントを顧客サポート、データ分析、自動化に利用可能です。
  • Google Document AIとOCRを使用した自動ドキュメントデータ抽出と解析を可能にするモジュール式FastAPIバックエンド。
    0
    0
    DocumentAI-Backendとは?
    DocumentAI-Backendは、ドキュメントからのテキスト、フォームフィールド、構造化データの抽出を自動化する軽量なバックエンドフレームワークです。PDFや画像をアップロードするREST APIエンドポイントを提供し、Google Document AIとOCRフォールバックを使用して処理し、解析結果をJSONで返します。Python、FastAPI、およびDockerを使用して構築されており、既存システムへの迅速な統合、拡張可能なデプロイメント、設定可能なパイプラインやミドルウェアによるカスタマイズを可能にします。
  • カスタマイズ可能なツールとメモリを備えた自律型のLLM駆動タスク実行を可能にするオープンソースのPython AIエージェントフレームワーク。
    0
    0
    OCO-Agentとは?
    OCO-Agentは、OpenAI互換の言語モデルを利用して、プレーンテキストのプロンプトを実用的なワークフローに変換します。外部API、シェルコマンド、およびデータ処理ルーチンの統合に柔軟なプラグインシステムを提供します。フレームワークは会話履歴とコンテキストをメモリに保持し、長時間の複数ステップのタスクを可能にします。CLIインターフェースおよびDockerサポートにより、運用、分析、開発者の生産性向上のためのインテリジェントアシスタントのプロトタイピングと展開を加速させます。
  • Pi Web Agentは、会話タスクと知識検索のためにLLMを統合したオープンソースのウェブベースAIエージェントです。
    0
    0
    Pi Web Agentとは?
    Pi Web Agentは、ウェブ上でAIチャットエージェントを構築するための軽量で拡張可能なフレームワークです。バックエンドはPython FastAPI、フロントエンドはReactを使用し、OpenAI、Cohere、またはローカルのLLMsによるインタラクティブな会話を提供します。ユーザーはドキュメントをアップロードしたり、外部データベースと接続してセマンティックサーチを行ったりできます。プラグインアーキテクチャにより、カスタムツール、関数呼び出し、サードパーティAPIのローカル統合も可能です。コード全体へのアクセス、役割ベースのプロンプトテンプレート、設定可能なメモリストレージを備え、カスタマイズ可能なAIアシスタントを作成できます。
  • Sys-Agentは、自然言語を通じてCLIコマンドの実行、ファイル管理、システム監視を可能にするセルフホスティング型のAI駆動パーソナルアシスタントです。
    0
    0
    Sys-Agentとは?
    Sys-Agentは、ユーザーが自然言語指示を出してシステムレベルのタスクを実行する安全なセルフホスティング環境を提供します。OpenAI、ローカルLLM、またはAPI経由アクセス可能な他のモデルサービスと連携し、プロンプトをシェルコマンド、ファイル操作、インフラチェックに変換します。ユーザーはプロンプトのカスタマイズ、タスクテンプレートの定義、DockerやKubernetesによるスケーリング、プラグインによる機能拡張が可能です。すべての操作は記録され、透明性とセキュリティを確保する監査証跡を提供します。
  • メモリ、ツール、多モデル対応を備えたAIエージェントを構築・オーケストレーション・展開するオープンソースのPythonフレームワーク。
    0
    0
    Agentfyとは?
    Agentfyは、LLM、メモリバックエンド、ツール統合を組み合わせて一体的なランタイムを構築するモジュール式アーキテクチャを提供します。開発者はPythonクラスでエージェントの動作を宣言し、ツール(REST API、データベース、ユーティリティ)を登録し、メモリストア(ローカル、Redis、SQL)を選択します。フレームワークは、プロンプト、アクション、ツール呼び出し、コンテキスト管理をオーケストレーションし、タスクの自動化を実現します。内蔵のCLIとDockerサポートにより、クラウドやエッジ環境にワンステップで展開可能です。
  • 多様なAIエージェントを検索、探索、展開できるウェブプラットフォームで、検索可能なカテゴリを備えた統合マーケットプレイス。
    0
    0
    AI Agent Marketplaceとは?
    AI Agent MarketplaceはNext.jsとReactを用いて構築されており、ユーザーがさまざまなAIエージェントを検索、評価、展開できる中心的なハブを提供します。プラットフォームはコミュニティからの貢献によるエージェントのメタデータを抽出し、詳細な説明、能力タグ、ブラウザ上のライブデモを提供します。ユーザーはドメイン、機能、技術提供者でエージェントをフィルタリング可能です。開発者向けに、モジュール化されたアーキテクチャで、新規エージェントの追加、APIエンドポイントの設定、UIコンポーネントのカスタマイズをサポートします。展開方法はVercelまたはローカルのDockerコンテナを含みます。多様なAIエージェントプロジェクトを一つの検索可能なインターフェースにまとめることで、試験、コラボレーション、運用ワークフローへの統合を加速します。
  • オープンソースのAIエンジンで、テキストプロンプトから魅力的な30秒動画を生成します。テキストから動画、TTS、および編集を使用します。
    0
    0
    AI Short Video Engineとは?
    AI-Short-Video-Engineは、多数のAIモジュールをエンドツーエンドのパイプラインで調整し、ユーザー定義のテキストプロンプトから洗練された短い動画に変換します。まず、システムは大規模言語モデルを利用してストーリーボードとスクリプトを生成します。次に、Stable Diffusionがシーンのアートワークを作成し、barkがリアルな音声ナレーションを提供します。エンジンは、画像、テキストのオーバーレイ、音声を組み合わせて一体化した動画を作り、トランジションと背景音楽を自動的に追加します。プラグインベースのアーキテクチャにより、各段階のカスタマイズ(例:代替のテキストから画像またはTTSモデルの切り替え、動画解像度やスタイルテンプレートの調整)が可能です。DockerまたはネイティブのPythonを用いて展開されており、CLIコマンドとRESTful APIエンドポイントの両方を提供し、開発者がAI駆動の動画制作を既存のワークフローにシームレスに統合できます。
  • 依存関係を内蔵した自律型GPTエージェントを迅速に展開・オーケストレーションするDockerベースのフレームワークです。
    0
    0
    Kurtosis AutoGPT Packageとは?
    Kurtosis AutoGPTパッケージは、最小限の労力で完全に構成されたAutoGPT環境を提供するKurtosisモジュールとしてパッケージ化されたAIエージェントフレームワークです。PostgreSQL、Redis、ベクトルストアなどのサービスを準備し、APIキーとエージェントスクリプトをネットワークに注入します。DockerとKurtosis CLIを使用して、隔離されたエージェントインスタンスを起動し、ログを確認し、予算を調整し、ネットワークポリシーを管理できます。このパッケージはインフラの負担を排除し、チームが迅速に自律的なGPT駆動のワークフローを再現可能な状態で開発、テスト、スケールできるようにします。
  • 機械学習の知識がなくてもAIモデルを簡単に統合できます。
    0
    0
    Cargoshipとは?
    Cargoshipは、機械学習の専門知識を必要とせずに、アプリケーションにAIを統合するための合理化されたソリューションを提供します。便利にDockerコンテナにパッケージされたオープンソースのAIモデルのコレクションから選択します。コンテナを実行することにより、モデルを容易に展開し、よく文書化されたAPIを介してアクセスできます。これにより、どのスキルレベルの開発者でも、ソフトウェアに高度なAI機能を組み込むのが容易になり、開発時間の短縮と複雑さの低減が実現します。
  • プライバシーとユーザーエクスペリエンスに重点を置いた無料でオープンソースのChatGPT用UI。
    0
    0
    Chatpad AIとは?
    Chatpad AIは、ChatGPT体験を向上させる無料でオープンソースのチャットユーザーインターフェースです。洗練された使いやすさとプライバシーに配慮した環境を提供し、ユーザーがシームレスに会話を行い、リクエストを容易に作成できるようにします。Dockerを使用して自己ホストされているため、ユーザーは自分のデータを完全に制御できます。カスタム構成を使用した自己ホスティングやワンクリックデプロイを利用することで、Chatpad AIは柔軟性や使いやすさを提供し、安全でユーザーフレンドリーな方法でChatGPTと対話したい人にとって素晴らしい選択肢となります。
  • ClassiCore-PublicはML分類を自動化し、データ前処理、モデル選択、ハイパーパラメータ調整、スケーラブルなAPI展開を提供します。
    0
    0
    ClassiCore-Publicとは?
    ClassiCore-Publicは分類モデルの構築、最適化、展開のための包括的な環境を提供します。直感的なパイプラインビルダーは、生データの取り込み、クリーニング、特徴エンジニアリングを処理します。内蔵のモデル zooには、ランダムフォレスト、SVM、深層学習アーキテクチャなどが含まれます。ベイズ最適化を用いた自動ハイパーパラメータチューニングにより最適な設定を見つけます。訓練済みモデルはRESTful APIまたはマイクロサービスとして展開でき、パフォーマンスをリアルタイムで監視するダッシュボードも提供します。拡張可能なプラグインにより、カスタム前処理や可視化、新しい展開ターゲットを追加でき、産業規模の分類タスクに最適です。
  • Co-Sightは、物体検出、追跡、分散推論のためのリアルタイムビデオ解析を提供するオープンソースのAIフレームワークです。
    0
    0
    Co-Sightとは?
    Co-Sightは、リアルタイムビデオ解析ソリューションの開発と展開を簡素化するオープンソースのAIフレームワークです。ビデオデータの取り込み、前処理、モデルの訓練、エッジとクラウド上の分散推論のためのモジュールを提供します。オブジェクト検出、分類、追跡、およびパイプラインのオーケストレーションをサポートし、低遅延処理と高スループットを実現します。モジュール式設計により、人気のディープラーニングライブラリとの統合やKubernetesを用いたシームレスなスケーリングが可能です。ユーザーはYAMLでパイプラインを定義し、Dockerを用いてデプロイし、ウェブダッシュボードでパフォーマンスを監視できます。Co-Sightは、高度なビジョンアプリケーション(スマートシティ監視、インテリジェントな交通、産業品質検査)の構築を支援し、開発時間と運用の複雑さを削減します。
  • CrewAIエージェントジェネレーターは、事前に作成されたテンプレート、シームレスなAPI統合、および展開ツールを備えて、カスタマイズされたAIエージェントを迅速にスキャフォールドします。
    0
    0
    CrewAI Agent Generatorとは?
    CrewAIエージェントジェネレーターは、コマンドラインインターフェースを活用して、新しいAIエージェントプロジェクトを導入します。意見の分かれるフォルダ構造、サンプルプロンプトテンプレート、ツール定義、テストスタブを備えています。OpenAI、Azure、またはカスタムLLMエンドポイントへの接続設定が可能で、ベクトルストアを使用したエージェントのメモリ管理、多数のエージェントを協調させるワークフローの調整、詳細な会話ログの閲覧、Vercel、AWS Lambda、Dockerへの展開が可能なビルトインスクリプトで迅速な開発と一貫したアーキテクチャを確保します。
フィーチャー