AIツール
AIエージェント
MCP
ランキング
提出と広告
ログイン
JA
JA
ホーム
タグ
personalización de redes neuronales
万能なpersonalización de redes neuronalesツール
多様な用途に対応可能なpersonalización de redes neuronalesツールを利用して、業務の効率化と柔軟性を実現しましょう。
personalización de redes neuronales
StarCraft II Reinforcement Learning Agent
DeepMindのPySC2環境を利用したPPOを用いるオープンソースの強化学習エージェントで、StarCraft IIを訓練・プレイします。
0
0
AIを訪れる
StarCraft II Reinforcement Learning Agentとは?
このリポジトリは、StarCraft IIのゲームプレイ研究のためのエンドツーエンドの強化学習フレームワークを提供します。メインエージェントはProximal Policy Optimization(PPO)を使用し、PySC2環境からの観察データを解釈して、正確なゲーム内アクションを出力します。開発者はニューラルネットワークの層、報酬の調整、訓練スケジュールをカスタマイズして性能向上を図れます。システムは、サンプル収集の効率化のためのマルチプロセッシング、訓練曲線の監視用ロギングユーティリティ、スクリプト化やビルトインAI対戦用の評価スクリプトをサポートします。コードはPythonで書かれ、TensorFlowを用いてモデルの定義と最適化を行います。ユーザーは、カスタム報酬関数、状態前処理、ネットワークアーキテクチャなどのコンポーネントを拡張可能です。
StarCraft II Reinforcement Learning Agent コア機能
SC2環境でのPPOを用いたポリシー訓練
状態/アクションの処理統合にDeepMindのPySC2を使用
設定可能なニューラルネットワークアーキテクチャと報酬
並列サンプル収集のためのマルチプロセッシングサポート
ロギングとTensorBoard統合
エージェントの評価用スクリプト
MADDPG-Keras
協調型および競合型のマルチエージェント強化学習のためのKerasベースのMulti-Agent Deep Deterministic Policy Gradientの実装です。
0
0
AIを訪れる
MADDPG-Kerasとは?
MADDPG-Kerasは、Kerasに実装されたMADDPGアルゴリズムを用いて、マルチエージェント強化学習の研究のための包括的なフレームワークを提供します。連続アクション空間、複数のエージェント、OpenAI Gymの標準環境をサポートします。研究者と開発者は、ニューラルネットワークのアーキテクチャ、トレーニングのハイパーパラメータ、報酬関数を設定し、組み込みのロギングとモデルのチェックポイント保存機能を使って実験を実行し、マルチエージェントのポリシー学習と比較を高速化できます。
MADDPG-Keras コア機能
MAGAIL
MAGAILは、生成的敵対的訓練を通じて複数のエージェントが専門家のデモンストレーションを模倣できるようにし、柔軟なマルチエージェント方針学習を促進します。
0
0
AIを訪れる
MAGAILとは?
MAGAILは、生成的敵対的模倣学習のマルチエージェント拡張を実装し、エージェントのグループが専門家のデモから協調動作を学習できるようにします。Pythonで構築されており、PyTorch(またはTensorFlowのバリアント)をサポートし、政策(ジェネレーター)とディスクリミネーターのモジュールから構成され、敵対的ループで訓練されます。エージェントは、OpenAIマルチエージェントパーティクル環境やPettingZooのような環境で軌跡を生成し、ディスクリミネーターがそれらを専門家のデータに照らして真偽を評価します。反復的な更新により、政策ネットワークは明示的な報酬関数なしで専門家に似た戦略に収束します。MAGAILのモジュラー設計は、ネットワークアーキテクチャ、専門家データの入力、環境統合、訓練ハイパーパラメータのカスタマイズを可能にします。さらに、標準搭載のログ記録とTensorBoardの可視化により、マルチエージェント学習の進捗とパフォーマンスの監視と分析を促進します。
MAGAIL コア機能
フィーチャー