万能な對話記憶ツール

多様な用途に対応可能な對話記憶ツールを利用して、業務の効率化と柔軟性を実現しましょう。

對話記憶

  • メモリ、ツール統合、カスタマイズ可能な意思決定戦略を備えた自律型AIエージェントを可能にする軽量JavaScriptライブラリ。
    0
    0
    js-agentとは?
    js-agentは、開発者に対してJavaScriptで自律型AIエージェントを作成するためのミニマルでありながら強力なツールキットを提供します。会話のメモリ、関数呼び出しツール、カスタマイズ可能なプランニング戦略、エラー処理の抽象化を提供します。これにより、プロンプトの設定、状態の管理、外部APIの呼び出し、複雑なエージェントの振る舞いの調整を簡単なモジュール式APIで迅速に行えます。Node.js環境での実行を想定し、OpenAI APIとシームレスに連携します。
  • Just Chatは、LLM用のオープンソースのウェブチャットUIで、プラグイン統合、会話の記憶、ファイルアップロード、カスタマイズ可能なプロンプトを提供します。
    0
    0
    Just Chatとは?
    Just Chatは、大規模言語モデルと対話するための完全なセルフホスト型チャットインターフェースを提供します。OpenAI、Anthropic、Hugging FaceなどのプロバイダーのAPIキーを入力することで、記憶サポート付きの複数ターンの会話を開始できます。このプラットフォームは、添付ファイルをアップロードして文書をコンテキストにしたQ&Aを可能にします。プラグイン統合は、Web検索、計算、データベースクエリなどの外部ツールの呼び出しをサポートします。開発者は、カスタムプロンプトテンプレートの設計、システムメッセージの制御、モデル間のシームレスな切り替えを行えます。UIはReactとNode.jsを使用して構築されており、デスクトップやモバイルでレスポンシブなウェブ体験を提供します。そのモジュール式プラグインシステムにより、機能の追加や削除が容易であり、カスタマーサポートボット、調査アシスタント、コンテンツ生成、教育チューターに適しています。
  • 開発者がLLM呼び出しを連鎖させ、ツールを統合し、メモリを管理するためのオープンソースフレームワーク。
    0
    0
    LangChainとは?
    LangChainは、AI駆動型アプリケーションの開発を高速化するためのオープンソースのPythonフレームワークです。複数の言語モデル呼び出し(チェーン)、外部ツールと連携するエージェントの構築、会話のメモリ管理の抽象化を提供します。開発者はプロンプト、出力パーサー、エンドツーエンドのワークフローを定義できます。ベクターストア、データベース、API、ホスティングプラットフォームとの統合により、実働可能なチャットボット、ドキュメント分析、コード支援、カスタムAIパイプラインを構築可能です。
  • 実践的なラボを通じて、開発者にLangChainとPythonを使ったAIエージェントの構築を教えるハンズオンブートキャンプ。
    0
    0
    LangChain with Python Bootcampとは?
    このブートキャンプは、LangChainフレームワークをエンドツーエンドでカバーし、PythonでのAIエージェント作成を可能にします。プロンプトテンプレート、チェーンの構成、エージェントツール、会話のメモリ、ドキュメントの検索などを探ります。インタラクティブなノートブックと詳細な演習を通じて、チャットボット、自動化されたワークフロー、質問回答システム、カスタムエージェントチェーンを実装します。コース修了時には、LangChainを用いたエージェントの展開と最適化について理解します。
  • メモリ、計画、ツール統合を備えたモジュール式AIエージェントを構築するためのPythonフレームワーク。
    0
    0
    Linguistic Agent Systemとは?
    Linguistic Agent Systemは、対話やタスクの計画に言語モデルを利用するインテリジェントエージェントを構築するためのオープンソースのPythonフレームワークです。メモリ管理、ツール登録、プランナー、エグゼキューターのコンポーネントを備え、コンテキストを維持し、外部APIを呼び出し、ウェブ検索やワークフローの自動化が可能です。YAMLによる設定が可能で、複数のLLMプロバイダーをサポートし、チャットボットやコンテンツサマライザ、自律型アシスタントの迅速なプロトタイピングを実現します。開発者はカスタムツールやメモリバックエンドを拡張し、ローカルまたはサーバー上でエージェントをデプロイできます。
  • LLM-Blender-Agentは、ツール統合、メモリ管理、推論、外部APIサポートを備え、多側AIエージェントのワークフローを調整します。
    0
    0
    LLM-Blender-Agentとは?
    LLM-Blender-Agentは、開発者がLLMを協調型エージェントにラップし、モジュール式のマルチエージェントAIシステムを構築することを可能にします。各エージェントはPython実行、Webスクレイピング、SQLデータベース、外部APIなどのツールにアクセスできます。フレームワークは会話のメモリ、ステップごとの推論、ツールのオーケストレーションを管理し、報告書作成、データ分析、自動調査、ワークフロー自動化などに利用できます。LangChain上に構築されており、軽量、拡張性が高く、GPT-3.5、GPT-4、その他のLLMと互換性があります。
  • メモリー、ツールの統合、多段階のタスク計画を備えたLLM駆動エージェントを構築するためのオープンソースのPythonフレームワーク。
    0
    0
    LLM-Agentとは?
    LLM-Agentは、大規模言語モデルを搭載したAIエージェントを構築するための軽量かつ拡張可能なフレームワークです。会話のメモリ、動的なプロンプトテンプレート、カスタムツールやAPIのシームレスな統合のための抽象化を提供します。開発者は、多段階の推論プロセスを調整し、やり取り間の状態を維持し、データ取得やレポート作成、意思決定支援などの複雑なタスクを自動化できます。メモリ管理とツールの使用、計画を組み合わせることで、LLM-AgentはPythonでの知的でタスク指向のエージェントの開発を効率化します。
  • Micro-agentは、ツール、メモリ、思考の連鎖計画を備えたカスタマイズ可能なLLMエージェントを構築できる軽量のJavaScriptライブラリです。
    0
    0
    micro-agentとは?
    Micro-agentは、大規模言語モデルを使用した高度なAIエージェントの作成を容易にする、軽量で意見を持たないJavaScriptライブラリです。エージェント、ツール、プランナー、メモリストアなどのコア抽象を公開し、開発者はカスタムの会話フローを組み立てることができます。エージェントは、外部APIや内部ユーティリティをツールとして呼び出し、動的なデータ取得やアクション実行を可能にします。このライブラリは、短期的な会話のメモリと長期的な永続メモリの両方をサポートし、セッション間のコンテキストを維持します。プランナーは、思考の連鎖を調整し、複雑なタスクをツール呼び出しや言語モデルのクエリに分解します。設定可能なプロンプトテンプレートと実行戦略により、Micro-agentはフロントエンドWebアプリ、Node.jsサービス、エッジ環境にシームレスに適応し、チャットボットやバーチャルアシスタント、自律意思決定システムの基盤を提供します。
  • NagaAgentは、カスタムツールチェーン、メモリ管理、多エージェントコラボレーションを可能にするPythonベースのAIエージェントフレームワークです。
    0
    0
    NagaAgentとは?
    NagaAgentは、PythonでのAIエージェントの作成、調整、スケーリングを簡素化するためのオープンソースのPythonライブラリです。プラグアンドプレイのツール統合システム、永続的な会話メモリオブジェクト、および非同期のマルチエージェントコントローラーを提供します。開発者は、カスタムツールを関数として登録し、エージェントの状態を管理し、複数のエージェント間の相互作用をコーチェアリングできます。フレームワークには、ロギング、エラー処理フック、迅速なプロトタイピングのための事前設定が含まれています。NagaAgentは、カスタマーサポートボット、データ処理パイプライン、研究アシスタントなど、複雑なワークフローの構築に最適です。
  • Nuzon-AIは、開発者がメモリとプラグインサポートを備えたカスタマイズ可能なチャットエージェントを作成できる拡張可能なAIエージェントフレームワークです。
    0
    0
    Nuzon-AIとは?
    Nuzon-AIは、タスクの定義、会話の記憶管理、プラグインによる機能拡張を可能にするPythonベースのエージェントフレームワークです。主要なLLM(OpenAI、ローカルモデル)との連携をサポートし、Webインタラクション、データ分析、自動化されたワークフローを実行できます。アーキテクチャにはスキルレジストリ、ツール呼出しシステム、多エージェント調整層が含まれ、顧客サポート、調査支援、個人の生産性向上のためのエージェントを構築可能です。設定ファイルにより、各エージェントの動作、メモリ保持ポリシー、デバッグや監査のためのログを調整できます。
  • メモリ管理とツール統合を備えたAIエージェント構築のための軽量JavaScriptフレームワーク。
    0
    0
    Tongui Agentとは?
    Tongui Agentは、会話状態を維持し、外部ツールを活用し、複数のサブエージェントを調整できるモジュール式アーキテクチャを提供します。開発者はLLMバックエンドの設定、カスタムアクションの定義、コンテキストを保存するためのメモリモジュールの追加を行います。このフレームワークには、SDK、CLI、および可観測性のためのミドルウェアフックが含まれており、WebやNode.jsアプリケーションへの統合が容易です。対応LLMにはOpenAI、Azure OpenAI、オープンソースモデルがあります。
  • bedrock-agentは、ツールチェーンとメモリサポートを備えた動的なAWS Bedrock LLMベースのエージェントを可能にするオープンソースのPythonフレームワークです。
    0
    0
    bedrock-agentとは?
    bedrock-agentは、多機能なAIエージェントフレームワークで、AWS Bedrockの大規模言語モデル群と連携し、複雑なタスク駆動のワークフローをオーケストレーションします。カスタムツール登録のプラグインアーキテクチャ、コンテキストの永続化を可能にするメモリモジュール、より良い推論のための思考チェーン機構を備えています。シンプルなPython APIとコマンドラインインターフェースを通じて、外部サービス呼び出し、ドキュメント処理、コード生成、チャットを通じたユーザーとの対話が可能なエージェントの定義をサポートします。エージェントは、ユーザープロンプトに基づいて適切なツールを自動的に選択し、セッション間で会話状態を維持できます。このフレームワークはオープンソースで、拡張可能かつ迅速なプロトタイピングとAI支援アシスタントの展開に最適化されています。
  • LLMサポート、プラグイン統合、メモリ管理を備えたAI搭載Discordチャットボットを構築するオープンソースPythonフレームワーク。
    0
    0
    Discord AI Agentとは?
    Discord AI Agentは、Discord APIとOpenAI互換のLLMを活用して、サーバーをインタラクティブなAIチャット環境に変えます。開発者は、スラッシュコマンドやメッセージイベント、スケジュールされたタスクを処理するカスタムプラグインを登録でき、組み込みのメモリストレージが会話の文脈を保持し、一貫したマルチターン対話を可能にします。このフレームワークは、非同期実行、設定可能なモデル、プロンプトテンプレート、デバッグ用のロギングをサポートします。単一のYAMLまたはJSON構成を編集することで、APIキー、モデルの設定、およびプラグインのディレクトリを定義できます。その拡張性に優れたアーキテクチャにより、モデレーション、トリビアゲーム、カスタマーサポートボットなどの専門機能を追加できます。ローカル運用またはクラウドプラットフォームへの展開のいずれでも、Discord AI Agentはコミュニティエンゲージメントのための柔軟でメンテナンス性の高いAIエージェントの構築を簡素化します。
  • LazyLLMは、開発者がカスタムメモリ、ツール統合、ワークフローを備えたインテリジェントなAIエージェントを構築できるPythonフレームワークです。
    0
    0
    LazyLLMとは?
    LazyLLMは外部APIやカスタムユーティリティと連携します。エージェントは定義されたタスクをシーケンシャルまたはブランチングワークフローを通じて実行し、同期または非同期操作をサポートします。LazyLLMには、ビルトインのロギング、テストユーティリティ、プロンプトや検索戦略をカスタマイズする拡張ポイントも備えています。LLM呼び出し、メモリ管理、ツールの実行といった基本的な調整を行うことで、LazyLLMは迅速なプロトタイピングとインテリジェントアシスタント、チャットボット、自動化スクリプトの展開を最小限のボイラープレートコードで可能にします。
  • 検索、コード実行、QAなどの統合ツールを備えたLLMベースのAIエージェントを示すPythonサンプルです。
    0
    0
    LLM Agents Exampleとは?
    LLM Agents Exampleは、PythonでAIエージェントを構築するためのハンズオンコードベースを提供します。カスタムツール(ウェブ検索、WolframAlphaを利用した数学解答、CSV解析、Python REPL)の登録、チャットおよび検索ベースのエージェントの作成、ベクトルストアへの接続によるドキュメント質問応答をデモンストレーションしています。このリポジトリは、会話の記憶を維持し、ツール呼び出しを動的に振り分け、複数のLLMプロンプトを連結して複雑なタスクを解決するパターンを示しています。ユーザーは、サードパーティAPIの統合、エージェントワークフローの構築、新機能の拡張方法を学習でき、開発者の実験やプロトタイピングに役立ちます。
  • カスタマイズ可能なLLM駆動ボットを実現するオープンソースのマルチエージェントAIフレームワーク。効率的なタスク自動化と会話ワークフローをサポートします。
    0
    0
    LLMLing Agentとは?
    LLMLingエージェントは、大規模言語モデルを利用したAIエージェントの構築・設定・展開を行うモジュラーなフレームワークです。ユーザーは複数のエージェント役割をインスタンス化し、外部ツールやAPIと連携し、会話の記憶を管理し、複雑なワークフローを調整できます。ブラウザベースのプレイグラウンドを備え、エージェント間の相互作用を可視化し、履歴のログやリアルタイム調整を可能にします。Python SDKを用いて、カスタム挙動をスクリプト化し、ベクトルデータベースを統合し、プラグインを通じて拡張が可能です。LLMLingエージェントは、再利用可能なコンポーネントと明確な抽象化により、チャットボット、データ分析ボット、自動化アシスタントの作成を効率化します。
  • Minervaは、計画、ツール統合、メモリサポートを備えた自律的なマルチステップワークフローを可能にするPython AIエージェントフレームワークです。
    0
    0
    Minervaとは?
    Minervaは、大規模言語モデルを用いて複雑なワークフローを自動化するように設計された拡張性のあるAIエージェントフレームワークです。開発者は、Web検索、API呼び出し、ファイル処理などの外部ツールと統合し、カスタムの計画戦略を定義し、会話または永続メモリを管理できます。Minervaは同期および非同期のタスク実行をサポートし、設定可能なログ記録とプラグインアーキテクチャにより、リアルワールドシナリオで推論、計画、ツール使用を行うインテリジェントエージェントの試作、テスト、展開を容易にします。
  • 会話チャット、記憶保存、タスク自動化、プラグイン統合をサポートするPythonベースのパーソナルAIアシスタントです。
    0
    0
    Personal AI Assistantとは?
    パーソナルAIアシスタントは、会話チャット、コンテキスト対応のメモリ、自動化されたタスク実行を提供するモジュール式のPython AIエージェントです。ウェブブラウジング、ファイル管理、メール送信、カレンダーのスケジューリングなどの機能を持つプラグインシステムを備えています。OpenAIまたはローカル言語モデルとSQLiteベースの記憶ストレージで、会話履歴を保持し、応答を時間とともに適応させます。開発者はカスタムモジュールで能力を拡張でき、効率化、研究、ホームオートメーションに適しています。
  • Arcadeは、APIオーケストレーションとチャット機能を備えたカスタマイズ可能なAIエージェントを構築するためのオープンソースのJavaScriptフレームワークです。
    0
    0
    Arcadeとは?
    Arcadeは、コヒーシブなSDKとコマンドラインインターフェースを提供することでAIエージェントの構築を簡素化した開発者向けフレームワークです。親しみやすいJS/TSの構文を使用して、大規模言語モデルの呼び出し、外部APIエンドポイント、カスタムロジックを統合したワークフローを定義できます。Arcadeは、会話のメモリ、コンテキストのバッチ処理、エラー処理を標準搭載しています。プラグ可能なモデル、ツール呼び出し、ローカルテストプレイグラウンドなどの機能により、迅速な反復が可能です。カスタマーサポートの自動化、レポート生成、複雑なデータパイプラインのオーケストレーションなど、さまざまな用途でArcadeはプロセスを合理化し、本番展開用のツールも提供します。
  • SpongeCakeは、Langchain統合とツールオーケストレーションによるカスタムAIエージェントの構築を効率化するPythonフレームワークです。
    0
    0
    SpongeCakeとは?
    基本的に、SpongeCakeはLangchainの上にある高レベルの抽象層であり、AIエージェントの開発を高速化することを目的としています。Web検索やデータベースコネクタ、カスタムAPIなどのツールの登録、プロンプトテンプレートの管理、会話メモリの永続化を組み込みでサポートします。コードベースとYAMLベースの両方の設定により、チームはエージェントの動作を宣言的に定義し、多段階のワークフローを連鎖させ、動的にツールを選択できます。付属のCLIはローカルでのテスト、デバッグ、エージェント設定のエクスポートを容易にし、チャットボット、タスク自動化ツール、ドメイン固有のアシスタントの構築に最適です。
フィーチャー