algorithm benchmarking

  • 協力的検索タスク用のPythonベースの多エージェント強化学習環境で、通信と報酬を設定可能。
    0
    0
    Cooperative Search Environmentとは?
    Cooperative Search Environmentは、離散格子空間と連続空間の両方で協力検索タスクに最適化された柔軟でgym互換のマルチエージェント強化学習環境を提供します。エージェントは部分観測の下で動作し、カスタマイズ可能な通信トポロジーに基づいて情報を共有できます。フレームワークは、探索と救助、動的ターゲット追跡、協調マッピングなどの事前定義されたシナリオをサポートし、カスタム環境や報酬構造を定義するためのAPIを備えています。Stable Baselines3やRay RLlibなどの人気RLライブラリとシームレスに統合され、性能分析用のロギングユーティリティやリアルタイム監視用のビジュアルツールも含まれます。研究者は、格子のサイズ、エージェントの数、センサー範囲、報酬共有メカニズムを調整して、協調戦略を評価し、新しいアルゴリズムを効果的にベンチマークできます。
    Cooperative Search Environment コア機能
    • gym互換のマルチエージェント環境
    • 格子ベースと連続シナリオの設定可能
    • 部分観測とカスタマイズ可能な通信トポロジー
    • カスタマイズ可能な報酬共有メカニズム
    • Stable Baselines3やRay RLlibとの連携
  • 複数の協力および競合するエージェント鉱夫がグリッドベースの世界で資源を収集するマルチエージェント学習を模擬するRL環境。
    0
    0
    Multi-Agent Minersとは?
    Multi-Agent Minersは、複数の自律型鉱夫エージェントが移動、掘削、資源収集をしながら互いに相互作用するグリッドの世界を提供します。設定可能な地図サイズ、エージェント数、報酬構造をサポートし、競争または協力シナリオの作成を可能にします。このフレームワークは、PettingZooを通じて人気のRLライブラリと連携し、リセット、ステップ、レンダリングの標準APIを提供します。可視化モードとロギングサポートにより行動と結果の分析を支援し、研究、教育、アルゴリズムのベンチマークに最適です。
  • 交通シナリオにおける協調型自律車両制御のためのオープンソース多エージェント強化学習フレームワーク。
    0
    0
    AutoDRIVE Cooperative MARLとは?
    AutoDRIVE Cooperative MARLは、自律走行タスクのために協調型マルチエージェント強化学習(MARL)ポリシーを訓練・展開するためのオープンソースフレームワークです。交差点、高速道路のプラトゥーニング、合流シナリオなどの交通シナリオをモデル化するために、リアルなシミュレータと連携します。このフレームワークは、中心型訓練と分散型実行を実装し、交通の効率と安全性を最大化する共有ポリシーを学習することを可能にします。ユーザーは環境パラメータを設定し、既存のMARLアルゴリズムを選択し、訓練の進行状況を可視化し、エージェントの協調性能をベンチマークできます。
フィーチャー