最新技術のaprendizaje por refuerzoツール

革新的な機能を備えたaprendizaje por refuerzoツールを使って、プロジェクトをより効率的に管理しましょう。

aprendizaje por refuerzo

  • AI Hedge Fund 5zuは、強化学習を用いてポートフォリオ管理を自動化し、取引戦略を最適化します。
    0
    0
    AI Hedge Fund 5zuとは?
    AI Hedge Fund 5zuは、複数の資産クラスのシミュレーションに対応したカスタマイズ可能な環境、強化学習ベースのエージェントモジュール、バックテストツール、リアルタイムの市場データ統合、リスク管理ツールを提供します。ユーザーはデータソースを設定し、報酬関数を定義し、履歴データでエージェントを訓練し、主要な金融指標に基づいてパフォーマンスを評価できます。モジュラー戦略開発をサポートし、本番環境にデプロイ可能なライブブローカーAPIへ拡張可能です。
  • ルールベースのパターン認識と強化学習エージェントを備えたオープンソースのPythonツールキットで、じゃんけんを行います。
    0
    0
    AI Agents for Rock Paper Scissorsとは?
    AIエージェント for じゃんけんは、ランダムプレイ、ルールベースのパターン認識、強化学習(Q学習)を用いて、伝統的なじゃんけんゲームでAI戦略を構築、訓練、評価する方法を示すオープンソースのPythonプロジェクトです。モジュール式のエージェントクラス、設定可能なゲーム実行環境、パフォーマンスのログ記録と視覚化ツールを提供します。ユーザーはエージェントを簡単に差し替え、学習パラメータを調整し、対戦シナリオにおけるAIの挙動を探索できます。
  • PythonのOpenAI Gym環境で、ビアゲームのサプライチェーンをシミュレートし、RLエージェントのトレーニングと評価を行います。
    0
    0
    Beer Game Environmentとは?
    ビアゲーム環境は、4段階(小売業者、卸売業者、ディストリビューター、メーカー)のビールサプライチェーンを離散時間でシミュレートし、OpenAI Gymインターフェースを公開しています。エージェントは在庫、パイプライン在庫、着荷予定の注文を観測し、その後、注文量を出力します。環境は、在庫保持とバックオーダーにかかるコストを1ステップごとに計算し、Demand分布やリードタイムのカスタマイズをサポートします。Stable Baselines3などの人気RLライブラリとシームレスに連携し、研究者や教育者がサプライチェーンの最適化タスクでアルゴリズムをベンチマーク・訓練できるようにします。
  • BotPlayersは、強化学習サポートを備えたAIゲームプレイエージェントの作成、テスト、展開を可能にするオープンソースフレームワークです。
    0
    0
    BotPlayersとは?
    BotPlayersは、AI駆動のゲームプレイエージェントの開発と展開を合理化する多用途のオープンソースフレームワークです。画面キャプチャ、ウェブAPI、またはカスタムシミュレーションインターフェースをサポートする柔軟な環境抽象化レイヤーを備え、さまざまなゲームと双方向に連携できます。組み込みの強化学習アルゴリズム、遺伝的アルゴリズム、ルールベースのヒューリスティックを含み、データ記録、モデルチェックポイント、パフォーマンス可視化のツールも提供します。モジュラーなプラグインシステムにより、センサー、アクション、AIポリシーをPythonまたはJavaでカスタマイズ可能です。YAMLベースの設定を利用した迅速なプロトタイピングや自動化されたトレーニング・評価パイプラインもあります。Windows、Linux、macOSでクロスプラットフォームに対応し、実験と知的ゲームエージェントの制作を促進します。
  • 建物のエネルギー管理、マイクログリッド制御、需要応答戦略の最適化のためのオープンソースの強化学習環境。
    0
    0
    CityLearnとは?
    CityLearnは、強化学習を用いたエネルギー管理研究のためのモジュール式シミュレーションプラットフォームです。ユーザーは、多ゾーン建物クラスター、HVACシステム、貯蔵ユニット、再生可能エネルギー源を定義し、需要応答イベントに対してRLエージェントを訓練できます。環境は温度、負荷プロファイル、エネルギー価格などの状態観測を提供し、アクションは設定点や貯蔵運用を制御します。柔軟な報酬APIは、コスト削減や排出削減などのカスタムメトリクスを可能にし、ロギングユーティリティは性能分析をサポートします。CityLearnは、ベンチマーク、カリキュラム学習、新しい制御戦略の開発に理想的な再現性のある研究フレームワークです。
  • 強化学習に基づく暗号通貨取引エージェントを提供するオープンソースフレームワーク。バックテスト、ライブ取引の統合、パフォーマンス追跡機能付き。
    0
    0
    CryptoTrader Agentsとは?
    CryptoTrader Agentsは、暗号通貨市場におけるAI駆動の取引戦略を設計、訓練、展開するための総合ツールキットを提供。データ取り込み、特徴エンジニアリング、カスタム報酬関数のためのモジュール式環境を含む。予め設定された強化学習アルゴリズムの利用や、独自モデルの統合も可能。過去の価格データに基づくシミュレーテッドバックテスト、リスク管理制御、詳細メトリック追跡も行える。準備が整えば、エージェントをライブ取引APIに接続し、自動執行を行える。Pythonで構築されており、拡張性も高く、新たな戦術のプロトタイプ作成、パラメータのスイープ、パフォーマンスのリアルタイム監視が可能。
  • 高速でモジュール式な強化学習アルゴリズムを提供し、マルチ環境をサポートする高性能Pythonフレームワーク。
    0
    0
    Fast Reinforcement Learningとは?
    Fast Reinforcement Learningは、強化学習エージェントの開発と実行を加速するために設計された専門的なPythonフレームワークです。PPO、A2C、DDPG、SACなどの人気アルゴリズムを標準装備し、高スループットのベクトル化された環境管理を組み合わせています。ユーザーはポリシーネットワークの設定、トレーニングループのカスタマイズ、大規模実験のためのGPUアクセラレーションを容易に行えます。このライブラリのモジュール設計は、OpenAI Gym環境とのシームレスな統合を保証し、研究者や実務者がさまざまな制御、ゲーム、シミュレーションタスクでエージェントのプロトタイピング、ベンチマーク、展開を行うことを可能にします。
  • DeepSeek R1は、推論、数学、コーディングに特化した高度なオープンソースAIモデルです。
    0
    0
    Deepseek R1とは?
    DeepSeek R1は人工知能の重要なブレークスルーを表しており、推論、数学、コーディングタスクでトップクラスのパフォーマンスを提供します。37Bのアクティブパラメータと671Bの総パラメータを持つ洗練されたMoE(Mixture of Experts)アーキテクチャを利用し、最先端の強化学習技術を実装して、業界最高の基準を達成しています。このモデルは、MATH-500で97.3%の精度、およびCodeforcesで96.3パーセンタイルのランキングを含む、堅牢なパフォーマンスを提供します。そのオープンソースの特性とコスト効果の高い展開オプションにより、幅広いアプリケーションにアクセス可能です。
  • Chromeのオフライン恐竜ゲームのために深層Q学習を実装したPythonベースのRLフレームワークによるAIエージェントの訓練。
    0
    0
    Dino Reinforcement Learningとは?
    Dino Reinforcement Learningは、強化学習を通じてChromeの恐竜ゲームをプレイするAIエージェントの訓練に必要なツールキットを提供します。Seleniumを介してヘッドレスChromeインスタンスと連携し、リアルタイムのゲームフレームをキャプチャして深層Qネットワークの入力に最適化された状態表現に処理します。フレームリプレイ、イプシロン貪欲探索、畳み込みニューラルネットワークモデル、カスタマイズ可能なハイパーパラメータを持つトレーニングループなどのモジュールが含まれます。トレーニング進行状況はコンソールログで確認でき、チェックポイントを保存して後で評価できます。トレーニング後、エージェントは自律的にライブゲームをプレイしたり、異なるモデルアーキテクチャと比較評価したりできます。モジュール設計により、異なるRLアルゴリズムへの置き換えも容易です。
  • 経験リプレイとターゲットネットワークを利用して Atari Breakout のプレイを学習するオープンソースの TensorFlow ベースの Deep Q-Network エージェントです。
    0
    0
    DQN-Deep-Q-Network-Atari-Breakout-TensorFlowとは?
    DQN-Deep-Q-Network-Atari-Breakout-TensorFlow は、Atari Breakout 環境に特化した DQN アルゴリズムの完全な実装です。畳み込みニューラルネットワークを用いてQ値を近似し、連続した観測間の相関を破るために経験リプレイを使用し、訓練安定化のために定期的に更新されるターゲットネットワークを採用しています。エージェントはε-greedyポリシーに従って探索し、生のピクセル入力からスクラッチで訓練可能です。リポジトリには設定ファイル、報酬の増加を監視する訓練スクリプト、訓練済みモデルのテストのための評価スクリプト、宛にTensorBoardによる訓練メトリクスの可視化ツールが含まれています。ユーザーは学習率、リプレイバッファサイズ、バッチサイズなどのハイパーパラメータを調整して異なる設定を試すことができます。
  • 協調強化学習タスクにおいて、多エージェントシステムが通信プロトコルを学習・解析するためのオープンソースPyTorchフレームワーク。
    0
    0
    Emergent Communication in Agentsとは?
    エマージング・コミュニケーション・イン・エージェンツは、多エージェントシステムが独自の通信プロトコルを開発する仕組みを研究する研究者向けのPyTorchベースのオープンソースフレームワークです。リファレンスゲーム、組合せゲーム、物体識別課題など、協調型強化学習タスクの柔軟な実装を提供しています。ユーザーはスピーカーとリスナーのエージェントアーキテクチャを定義し、語彙数やシーケンス長などのメッセージチャネルのプロパティを指定し、方策勾配や教師あり学習などのトレーニング戦略を選択します。このフレームワークには、実験の実行、通信効率性の分析、エマージング・ランゲージの可視化のためのエンドツーエンドのスクリプトが含まれます。モジュール式設計により、新しいゲーム環境やカスタム損失関数を容易に拡張可能です。研究者は公開済み研究の再現、新アルゴリズムのベンチマーク、エージェント言語の構成性と意味論の調査が行えます。
  • Gym-Recsysは、スケーラブルな学習と評価のためのカスタマイズ可能なOpenAI Gym環境を提供し、強化学習推薦エージェントを実行します。
    0
    0
    Gym-Recsysとは?
    Gym-Recsysは、推奨タスクをOpenAI Gym環境にラップするツールボックスで、強化学習アルゴリズムがシミュレートされたユーザーアイテム行列とステップバイステップで対話できるようにします。合成ユーザ行動生成器を提供し、一般的なデータセットの読み込みをサポートし、Precision@KやNDCGなどの標準的な推奨指標を提供します。ユーザは報酬関数、ユーザモデル、アイテムプールをカスタマイズして、異なるRLベースの推奨戦略を再現性を持って実験できます。
  • 強化学習アルゴリズムの開発とテストに適した、OpenAI Gymと互換性のあるカスタマイズ可能なグリッドワールド環境のコレクション。
    0
    0
    GridWorldEnvsとは?
    GridWorldEnvsは、強化学習やマルチエージェントシステムの設計、テスト、ベンチマークに役立つ包括的なグリッドワールド環境のスイートを提供します。ユーザーは簡単にグリッドのサイズ、エージェントの開始位置、ゴールの位置、障害物、報酬構造、アクション空間を設定できます。クラシックなグリッドナビゲーション、障害物回避、協力タスクなどの既製のテンプレートも含まれており、JSONまたはPythonクラスを使ったカスタムシナリオの定義も可能です。OpenAI Gym APIとのシームレスな統合により、標準的なRLアルゴリズムを直接適用できます。さらに、GridWorldEnvsはシングルエージェントおよびマルチエージェントの実験、ログ記録、パフォーマンス追跡のための可視化ツールもサポートします。
  • gym-fxは、外国為替取引戦略の強化学習エージェントを訓練および評価するためのカスタマイズ可能なOpenAI Gym環境を提供します。
    0
    0
    gym-fxとは?
    gym-fxは、OpenAI Gymインターフェースを使用したシミュレートされた外国為替取引環境を実装したオープンソースのPythonライブラリです。複数の通貨ペアのサポート、歴史的価格フィードの統合、技術指標、および完全にカスタマイズ可能な報酬関数を提供します。標準化されたAPIを通じて、algorithmsのベンチマークや開発を容易にします。ユーザーは、市場のスリッページや取引コスト、観測空間を設定して、実取引に近いシナリオを模擬し、堅牢な戦略開発と評価を促進します。
  • gym-llmは、会話や意思決定タスクのためのベンチマークとLLMエージェントのトレーニングに使用されるGymスタイルの環境を提供します。
    0
    0
    gym-llmとは?
    gym-llmは、テキストベースの環境を定義することで、LLMエージェントがプロンプトとアクションを通じて相互作用できるようにし、OpenAI Gymエコシステムを拡張します。各環境はGymのステップ、リセット、レンダリングの規約に従い、観測はテキストとして出力され、モデル生成の応答はアクションとして受け入れられます。開発者は、プロンプトテンプレート、報酬計算、終了条件を指定することで、高度な意思決定や会話型のベンチマークを作成できます。人気のRLライブラリやロギングツール、評価指標との連携により、エンドツーエンドの実験を容易に行えます。パズル解決、対話管理、構造化されたタスクのナビゲーションなど、LLMの能力を評価するための標準化された再現性のあるフレームワークを提供します。
  • PythonをベースとしたOpenAI Gym環境で、強化学習エージェントのナビゲーションと探索研究のためにカスタマイズ可能な複数部屋のグリッドワールドを提供します。
    0
    0
    gym-multigridとは?
    gym-multigridは、複数部屋のナビゲーションと探索タスクのために設計されたカスタマイズ可能なグリッドワールド環境のセットを提供します。各環境は、オブジェクト、鍵、ドア、障害物で構成された連結された部屋で構成されます。ユーザーはプログラムでグリッドサイズ、部屋の構成、オブジェクトの配置を調整できます。ライブラリは完全および部分観測モードをサポートし、RGBまたはマトリクスの状態表現を提供します。アクションには移動、オブジェクトとのインタラクション、ドア操作が含まれます。Gym環境として統合することで、研究者は任意のGym互換エージェントを活用して、キーとドアのパズル、オブジェクトの取得、階層的計画といったタスクのトレーニングと評価をシームレスに行うことができます。gym-multigridはモジュラー設計と最小限の依存関係により、新しいAI戦略のベンチマークに最適です。
  • HFO_DQNは、Deep Q-Networkを適用してRoboCup Half Field Offense環境でサッカーエージェントを訓練する強化学習フレームワークです。
    0
    0
    HFO_DQNとは?
    HFO_DQNは、PythonとTensorFlowを組み合わせて、Deep Q-Networkを使用したサッカーエージェント訓練のための完全なパイプラインを提供します。ユーザーはリポジトリをクローンし、HFOシミュレータやPythonライブラリを含む依存関係をインストールし、YAMLファイルで訓練パラメータを設定できます。このフレームワークは、経験再生、ターゲットネットワークの更新、ε-greedy探索、ハーフフィールドオフェンス向けの報酬調整を実装しています。エージェント訓練、性能ログ記録、評価マッチ、結果のプロット用スクリプトを備えています。モジュール式のコード構造により、カスタムニューラルネットアーキテクチャ、代替RLアルゴリズム、マルチエージェントコーディネーションの統合が可能です。出力には訓練されたモデル、性能指標、挙動の可視化が含まれ、強化学習やマルチエージェントシステムの研究を促進します。
  • Jason-RLは、Jason BDIエージェントに強化学習を搭載し、報酬体験を通じてQ学習とSARSAに基づく適応的意思決定を可能にします。
    0
    0
    jason-RLとは?
    jason-RLは、Jasonのマルチエージェントフレームワークに強化学習層を追加し、AgentSpeak BDIエージェントが報酬フィードバックを通じて行動選択ポリシーを学習できるようにします。Q学習とSARSAのアルゴリズムを実装し、学習パラメータ(学習率、割引ファクター、探索戦略)の設定をサポートし、トレーニングの指標をログに記録します。エージェントの計画で報酬関数を定義し、シミュレーションを実行することで、開発者はエージェントが時間とともに意思決定を改善し、環境の変化に適応する様子を観察できます。
  • MARFTは、協調型AIワークフローと大規模言語モデル最適化のためのオープンソースのマルチエージェントRLファインチューニングツールキットです。
    0
    0
    MARFTとは?
    MARFTはPythonベースのLLMを対象とし、再現性のある実験と協調AIシステムの迅速なプロトタイピングを可能にします。
  • カスタマイズ可能な3Dサンドボックス環境でAIエージェントが複雑なタスクを学習できる、オープンソースのMinecraftにインスパイアされたRLプラットフォームです。
    0
    0
    MineLandとは?
    MineLandはMinecraftに触発された柔軟な3Dサンドボックス環境で、訓練用のRLエージェントに提供します。Gym互換のAPIにより、Stable Baselines、RLlib、カスタム実装とシームレスに連携できます。資源収集、ナビゲーション、建設チャレンジを含むタスクのライブラリにアクセスでき、それぞれの難易度と報酬構造を設定可能です。リアルタイムレンダリング、多エージェントシナリオ、およびヘッドレスモードにより、スケーラブルな訓練とベンチマークが可能です。開発者は新しいマップを設計し、カスタム報酬関数を定義し、追加センサーやコントロールをプラグインできます。MineLandのオープンソースコードベースは、再現性のある研究、協調開発、複雑な仮想世界でのAIエージェントの迅速なプロトタイピングを促進します。
フィーチャー