万能なbenutzerdefinierte Pluginsツール

多様な用途に対応可能なbenutzerdefinierte Pluginsツールを利用して、業務の効率化と柔軟性を実現しましょう。

benutzerdefinierte Plugins

  • Agent Forgeは、LLMおよび外部ツールと統合されたAIエージェントのスキャフォールディング、オーケストレーション、およびデプロイのためのCLIフレームワークです。
    0
    0
    Agent Forgeとは?
    Agent Forgeは、CLIスキャフォールドコマンドを使用してテンプレートコード、会話テンプレート、および設定を生成することで、AIエージェントの開発全体のライフサイクルを効率化します。開発者は、エージェントの役割を定義し、LLMプロバイダーを追加し、ベクトルデータベース、REST API、カスタムプラグインなどの外部ツールをYAMLまたはJSON記述子を使用して統合できます。このフレームワークは、ローカル実行、インタラクティブテスト、エージェントをDockerイメージやサーバーレス関数としてパッケージングして簡単に展開できる機能を備えています。ビルトインのロギング、環境プロファイル、およびVCSフックにより、デバッグ、コラボレーション、CI/CDパイプラインが容易になります。この柔軟なアーキテクチャは、チャットボット、自律型リサーチアシスタント、カスタマーサポートボット、自動化されたデータ処理ワークフローを最小限のセットアップで作成することをサポートします。
  • AgentInは、カスタマイズ可能なメモリ、ツール統合、自動プロンプト機能を備えたAIエージェントを構築するためのオープンソースPythonフレームワークです。
    0
    0
    AgentInとは?
    AgentInは、会話型およびタスク駆動型のエージェント開発を加速するためのPythonベースのAIエージェントフレームワークです。コンテキストを保持するための内蔵メモリモジュール、外部APIやローカル関数を呼び出すための動的ツール統合、カスタマイズ可能な対話のためのフレキシブルなプロンプトテンプレートシステムを備えています。複数エージェントのオーケストレーションは並列ワークフローを可能にし、ロギングとキャッシュにより信頼性と監査性を向上させます。YAMLやPythonコードによる簡単な設定が可能で、主要なLLMプロバイダーをサポートし、ドメイン固有の機能拡張のためにカスタムプラグインも追加できます。
  • ツール連携とメモリ管理を備えたLangChain AIエージェントの構築とカスタマイズのためのTypeScriptフレームワーク。
    0
    0
    Agents from Scratch TSとは?
    Agents from Scratch TSは、LangChainを用いてゼロからAIエージェントを構築する方法を示すオープンソースのTypeScriptフレームワークです。外部ツールの定義と登録、会話メモリの管理、ユーザ入力の適切なエージェントへのルーティング、複数のLLM呼び出しのチェーン化についてのサンプルコードを含みます。開発者はこれを利用して、ベストプラクティスの理解やエージェントの挙動のカスタマイズ、新たな機能(Web検索、データ取得、カスタムプラグインによるタスク自動化やインタラクティブなアシスタントの構築)を行えます。
  • ToolHouseとGroq LLMを融合したAIエージェント。コードを自動生成、検証、改善します。
    0
    0
    AI Agent for Code Generation using ToolHouse & Groq LLMとは?
    ToolHouseとGroq LLMを基盤としたこのAIエージェントは、開発者からの自然言語入力を受け取り、コードジェネレーターやリンター、テストランナー、CI/CDコネクタなどの複数ツールのチェーンをオーケストレーションし、コードの生成、検証、改善を行います。複数のプログラミング言語に対応し、フィードバックに基づく反復や、カスタムプラグインによる特殊タスクの対応も可能です。 自動化により、生成されたコードが配信前に品質基準を満たすことを保証します。
  • メモリ、ツール統合、多エージェントワークフローを備えたモジュール式AIエージェントの迅速な開発とオーケストレーションを可能にするオープンソースのPythonフレームワーク。
    0
    0
    AI-Agent-Frameworkとは?
    AI-Agent-Frameworkは、PythonでAIを活用したエージェントを構築する包括的な基盤を提供します。会話のメモリ管理、外部ツールの統合、プロンプトテンプレート構築用のモジュールが含まれます。開発者はさまざまなLLMプロバイダに接続し、カスタムプラグインを搭載し、調整されたワークフローで複数のエージェントを調整できます。内蔵のロギングと監視ツールは、エージェントのパフォーマンス追跡と動作のデバッグに役立ちます。拡張性の高い設計により、新しいコネクタや特定分野の機能の追加がシームレスに行え、迅速なプロトタイピング、研究プロジェクト、運用レベルの自動化に最適です。
  • Aladinは、スクリプト化されたワークフロー、メモリ対応の意思決定、およびプラグインベースのタスクオーケストレーションを可能にするオープンソースの自律型LLMエージェントです。
    0
    0
    Aladinとは?
    Aladinは、大規模言語モデル(LLMs)によって動作する自律型エージェントを定義できるモジュール式のアーキテクチャを提供します。各エージェントは、SQLiteやインメモリなどのメモリバックエンドをロードし、動的プロンプトテンプレートを利用し、外部API呼び出しやローカルコマンド実行のためのカスタムプラグインを統合できます。高レベルの目標をシーケンス化されたアクションに分解し、順次実行し、LLMのフィードバックに基づいて反復するタスクプランナーを備えています。設定はYAMLファイルと環境変数で管理され、さまざまなユースケースに適応可能です。ユーザーはDocker ComposeまたはpipによるインストールでAladinを展開できます。CLIとFastAPIに基づくHTTPエンドポイントにより、エージェントのトリガー、実行の監視、およびメモリ状態の検査が可能で、CI/CDパイプライン、チャットインターフェース、またはカスタムダッシュボードとの統合を促進します。
  • 記憶、推論、ツール統合を備えたPythonベースの自律型AIエージェントフレームワークで、多段階タスクの自動化を実現します。
    0
    0
    CereBroとは?
    CereBroは、自律的なタスク分解、持続的な記憶、動的なツール使用を可能にするモジュール式アーキテクチャを提供します。思考、行動、記憶を管理するBrainコアを含み、外部API用のカスタムプラグインをサポートし、オーケストレーション用のCLIインターフェースも提供します。ユーザーはエージェントの目標を定義し、推論戦略を設定し、Web検索、ファイル操作、ドメイン固有のツールなどの関数を統合して、手動介入なしにタスクをエンドツーエンドで実行できます。
  • ClassiCore-PublicはML分類を自動化し、データ前処理、モデル選択、ハイパーパラメータ調整、スケーラブルなAPI展開を提供します。
    0
    0
    ClassiCore-Publicとは?
    ClassiCore-Publicは分類モデルの構築、最適化、展開のための包括的な環境を提供します。直感的なパイプラインビルダーは、生データの取り込み、クリーニング、特徴エンジニアリングを処理します。内蔵のモデル zooには、ランダムフォレスト、SVM、深層学習アーキテクチャなどが含まれます。ベイズ最適化を用いた自動ハイパーパラメータチューニングにより最適な設定を見つけます。訓練済みモデルはRESTful APIまたはマイクロサービスとして展開でき、パフォーマンスをリアルタイムで監視するダッシュボードも提供します。拡張可能なプラグインにより、カスタム前処理や可視化、新しい展開ターゲットを追加でき、産業規模の分類タスクに最適です。
  • Esquilaxは、マルチエージェントAIワークフローをオーケストレーションし、Memory、コンテキスト、プラグイン連携を管理するTypeScriptフレームワークです。
    0
    0
    Esquilaxとは?
    Esquilaxは、複雑なAIエージェントワークフローの構築とオーケストレーションのために設計された軽量のTypeScriptフレームワークです。エージェントの宣言的定義、メモリモジュールの割り当て、API呼び出しやデータベースクエリなどのカスタムプラグインアクションを提供します。コンテキスト処理とマルチエージェント調整をサポートし、チャットボットやデジタルアシスタント、オートメーションを簡素化します。イベント駆動のアーキテクチャにより、タスクの連鎖や動的トリガーが可能で、ロギング・デバッグツールによりエージェントの動作を完全に可視化します。ボイラープレートコードを抽象化することで、大規模なAI駆動アプリの迅速なプロトタイプ作成を支援します。
  • 軽量なウェブベースのAIエージェントプラットフォームで、開発者が会話型ボットをAPI統合で展開・カスタマイズ可能です。
    0
    0
    Lite Web Agentとは?
    Lite Web Agentは、ブラウザネイティブのプラットフォームで、ユーザーがAI駆動の会話エージェントを作成、設定、展開できるようにします。ビジュアルフロービルダー、RESTおよびWebSocket APIの統合サポート、状態の永続化、カスタムロジック用のプラグインフックを備えます。エージェントはすべてクライアント側で動作し、低遅延とプライバシーを確保します。必要に応じてサーバコネクタも利用可能で、データ保存や高度な処理を行います。ウェブサイトやイントラネット、アプリへの埋め込みに最適です。
  • Liveは、コンテキストに対応したAIアシスタントを任意のウェブサイトに埋め込み、コンテンツ生成、要約、データ抽出、自動化を行います。
    0
    0
    Live by Vroom AIとは?
    Vroom AIのLiveは、オープンフレームワークとブラウザ拡張機能で、AIエージェントをウェブブラウジング体験に直接もたらします。Liveをインストールすると、ページのコンテキストを理解し、マーケティングコピーの生成、記事の要約、構造化データの抽出、自動フォーム入力、ドメイン固有の質問回答などに対応するサイドバーAIアシスタントにアクセスできます。開発者はSDKを使ってカスタムプラグインを拡張し、自身のLLMモデルやサードパーティAPIを統合して特定のワークフローに合わせることが可能です。
  • LLMFlowは、ツール統合と柔軟なルーティングを備えたLLMベースのワークフローの orchestrationを可能にするオープンソースフレームワークです。
    0
    0
    LLMFlowとは?
    LLMFlowは、複雑な言語モデルワークフローの設計、テスト、展開を表現的に行う方法を提供します。開発者は、プロンプトやアクションを表すノードを作成し、それらを条件や外部ツールの出力に基づいて分岐可能なフローにチェーンします。組み込みのメモリ管理はステップ間のコンテキストを追跡し、アダプターはOpenAI、Hugging Faceなどとのシームレスな統合を可能にします。プラグインを利用してカスタムツールやデータソースの機能拡張も可能です。ローカル、コンテナ、サーバーレス関数としてフローを実行します。ユースケースには、会話エージェントの作成、自動レポート生成、データ抽出パイプラインなどがあります。すべて透明な実行とロギングを備えています。
  • セマンティックメモリ、プラグイン型ウェブ検索、ファイルツール、Python実行を備えたAIパーソナルアシスタント構築のためのオープンソースフレームワーク。
    0
    0
    PersonalAIとは?
    PersonalAIは、高度なLLMの統合と持続的なセマンティックメモリ、拡張可能なプラグインシステムを組み合わせた包括的なエージェントフレームワークを提供します。開発者はRedis、SQLite、PostgreSQL、またはベクトルストアなどのメモリバックエンドを設定し、埋め込みを管理し過去の会話を呼び出すことができます。内蔵プラグインは、Web検索、ファイルの読み書き、Pythonコードの実行などをサポートし、堅牢なプラグインAPIによりカスタムツールの作成が可能です。エージェントはLLMのプロンプトとツール呼び出しを管理し、コンテキストに基づく応答と自動化を実現します。ローカルのHugging FaceのLLMや、クラウドサービスのOpenAIやAzure OpenAIを利用できます。個別のドメインに特化したアシスタント、研究ロボット、自律学習型のナレッジマネジメントエージェントの迅速なプロトタイピングを可能にする、モジュラーな設計です。
  • GPT統合による協調型マルチエージェントタスクオーケストレーションを促進するオープンソースAIエージェントフレームワーク。
    0
    0
    MCP Crew AIとは?
    MCP Crew AIは、開発者向けに設計されたフレームワークで、コラボレーションチーム内でのGPTベースのAIエージェントの作成とコーディネーションを簡素化します。管理者、ワーカー、モニターの役割を定義することで、タスクの委譲、実行、監督を自動化します。内蔵サポートのOpenAI API、カスタムエージェントプラグイン用のモジュラーアーキテクチャ、CLIを備えており、チームの稼働と監視を容易にします。MCP Crew AIは、スケーラブルで透明性の高いメンテナンスしやすいAI駆動のワークフロー構築を促進します。
  • MelissaはAI搭載のパーソナルアシスタントで、タスク管理、自動化ワークフロー、自然言語チャットを通じたクエリ回答を行います。
    0
    0
    Melissaとは?
    Melissaは高度な自然言語理解を利用し、ユーザーのコマンドを解釈、コンテキストに応じた回答を生成し、自動化されたタスクを実行する対話型AIエージェントです。タスクスケジューリングやリマインダー、データ照会、Googleカレンダー、Slack、メールサービスなどの外部API統合などの機能を提供します。ユーザーはカスタムプラグインを通じてMelissaの能力を拡張し、繰り返し処理のワークフローを作成し、知識ベースへ素早くアクセスして情報を取得できます。オープンソースプロジェクトとして、開発者はMelissaをクラウドまたはローカルサーバーに自己ホスティングでき、権限を設定し、その動作を組織の要件や個人の好みに合わせて調整可能で、生産性向上やカスタマーサポート、デジタルアシスタントに柔軟に対応できます。
  • オープンソースのAIエージェントフレームワークで、自動計画、ツール連携、意思決定、ワークフローのオーケストレーションをLLMsと共に実現します。
    0
    0
    MindForgeとは?
    MindForgeは、最小限のボイラープレートでAI駆動のエージェントを構築・展開できる堅牢なオーケストレーションフレームワークです。タスクプランナー、推論エンジン、メモリマネージャ、ツール実行層からなるモジュール構造を持ち、LLMsを利用して、ユーザー入力の解析、計画の作成、外部ツール(ウェブスクレイピングAPI、データベース、カスタムスクリプトなど)呼び出しが可能です。メモリコンポーネントは会話の文脈を保存し、多ターンのインタラクションを可能にし、意思決定エンジンは定義されたポリシーに基づいて動的に行動を選びます。プラグインサポートとカスタマイズ可能なパイプラインにより、開発者はカスタムツール、サードパーティ統合、ドメイン固有のナレッジベースなどを拡張できます。MindForgeはAIエージェントの開発を簡素化し、迅速なプロトタイピングと本番環境へのスケーラブルな展開を支援します。
  • Camelは、多エージェントの協調、ツール統合、LLMsと知識グラフによる計画を可能にするオープンソースのAIエージェントオーケストレーションフレームワークです。
    0
    0
    Camel AIとは?
    Camel AIは、インテリジェントエージェントの作成とオーケストレーションを簡素化したオープンソースフレームワークです。大型言語モデルの連鎖、外部ツールおよびAPIの統合、知識グラフの管理、メモリの永続化に関する抽象化を提供します。開発者はマルチエージェントワークフローを定義し、タスクをサブプランに分解し、CLIまたはWeb UIを通じて実行状況を監視できます。PythonとDocker上で構築されており、LLM提供者やカスタムツールプラグイン、ハイブリッドプランニング戦略のシームレスな置き換えを可能にし、自動アシスタント、データパイプライン、自治型ワークフローの開発を加速します。
  • Operitは、動的なツール統合、多段階の推論、カスタマイズ可能なプラグインベースのスキルオーケストレーションを提供するオープンソースのAIエージェントフレームワークです。
    0
    0
    Operitとは?
    Operitは、さまざまなタスク用の自律エージェントの作成を効率化するために設計された総合的なオープンソースAIエージェントフレームワークです。OpenAIのGPTやローカルモデルなどのLLMと連携して、多段階のワークフロー全体で動的な推論を可能にします。ユーザーは、データフェッチ、ウェブスクレイピング、データベースクエリ、コード実行などのカスタムプラグインを定義でき、Operitはセッションのコンテキスト、メモリ、ツール呼び出しを管理します。フレームワークは、持続的な状態、設定可能なパイプライン、エラー処理メカニズムを備えたエージェントを構築、テスト、および展開するための明確なAPIを提供します。カスタマーサポートチャットボット、研究アシスタント、ビジネス自動化エージェントなどを開発する場合でも、Operitの拡張可能なアーキテクチャと堅牢なツールにより、迅速なプロトタイピングとスケーラブルな展開が可能です。
  • ツール統合、メモリ、カスタマイズ可能なアクションループを備えたLLM搭載エージェントをオーケストレーションする軽量Pythonフレームワーク。
    0
    0
    Python AI Agentとは?
    Python AI Agentは、大規模言語モデル駆動の自律エージェントを調整するための開発者向けツールキットを提供します。カスタムツールやアクションを定義し、メモリモジュールで会話履歴を維持し、インタラクティブな体験のためにレスポンスをストリーミングするための仕組みを備えています。プラグインアーキテクチャを拡張してAPI、データベース、外部サービスと連携し、データ取得や計算、自動化フローを可能にします。設定可能なパイプライン、エラー処理、ロギングをサポートし、堅牢な展開を実現します。最小限のボイラープレートで、チャットボット、バーチャルアシスタント、データ解析ツール、タスク自動化ツールを構築でき、LLMの推論と多段階意思決定を活用します。オープンソースの性質はコミュニティ貢献を促進し、あらゆるPython環境に適合します。
  • Saikiは、シンプルなYAML設定とREST APIを通じて、自律型AIエージェントを定義、連鎖、監視するためのフレームワークです。
    0
    0
    Saikiとは?
    Saikiは、宣言型のYAML定義を書いて複雑なAI駆動のワークフローを構築できるオープンソースのエージェントオーケストレーションフレームワークです。各エージェントは、タスクを実行したり、外部サービスを呼び出したり、他のエージェントを連鎖的に呼び出すことができます。Saikiは、ビルトインのREST APIサーバー、実行トレース、詳細なログ出力、リアルタイム監視用のウェブダッシュボードを提供します。リトライ、フォールバック、カスタム拡張をサポートし、堅牢な自動化パイプラインの反復、デバッグ、スケーリングを容易にします。
フィーチャー