万能なStarCraft II AIツール

多様な用途に対応可能なStarCraft II AIツールを利用して、業務の効率化と柔軟性を実現しましょう。

StarCraft II AI

  • DeepMindのPySC2環境を利用したPPOを用いるオープンソースの強化学習エージェントで、StarCraft IIを訓練・プレイします。
    0
    0
    StarCraft II Reinforcement Learning Agentとは?
    このリポジトリは、StarCraft IIのゲームプレイ研究のためのエンドツーエンドの強化学習フレームワークを提供します。メインエージェントはProximal Policy Optimization(PPO)を使用し、PySC2環境からの観察データを解釈して、正確なゲーム内アクションを出力します。開発者はニューラルネットワークの層、報酬の調整、訓練スケジュールをカスタマイズして性能向上を図れます。システムは、サンプル収集の効率化のためのマルチプロセッシング、訓練曲線の監視用ロギングユーティリティ、スクリプト化やビルトインAI対戦用の評価スクリプトをサポートします。コードはPythonで書かれ、TensorFlowを用いてモデルの定義と最適化を行います。ユーザーは、カスタム報酬関数、状態前処理、ネットワークアーキテクチャなどのコンポーネントを拡張可能です。
    StarCraft II Reinforcement Learning Agent コア機能
    • SC2環境でのPPOを用いたポリシー訓練
    • 状態/アクションの処理統合にDeepMindのPySC2を使用
    • 設定可能なニューラルネットワークアーキテクチャと報酬
    • 並列サンプル収集のためのマルチプロセッシングサポート
    • ロギングとTensorBoard統合
    • エージェントの評価用スクリプト
  • AlphaStarの簡略化されたPyTorch実装で、モジュール式ネットワークアーキテクチャと自己対戦によるStarCraft II強化学習エージェントの訓練を可能にします。
    0
    0
    mini-AlphaStarとは?
    mini-AlphaStarは、StarCraft IIのAI開発のためのアクセスしやすくオープンソースのPyTorchフレームワークを提供し、複雑なAlphaStarアーキテクチャを解明します。画面とミニマップ入力用の空間特徴エンコーダ、非空間特徴処理、LSTMメモリモジュール、行動選択と状態評価のための別々の方針と価値ネットワークを備えています。模倣学習でブートストラッピングし、自己対戦による強化学習で微調整を行います。StarCraft IIと互換性のある環境ラッパー、TensorBoardによるロギング、設定可能なハイパーパラメータをサポート。研究者や学生は人間のプレイからデータセットを生成し、カスタムシナリオでモデルを訓練し、エージェントのパフォーマンスを評価し、学習曲線を可視化できます。モジュール式のコードベースにより、ネットワークのバリアント、訓練スケジュール、多エージェント設定を容易に実験できます。教育や試作を目的としており、本番運用には適していません。
  • PySC2を使用したStarCraft IIにおける生レベルのエージェント制御と協調を可能にするオープンソースのマルチエージェント強化学習フレームワーク。
    0
    0
    MultiAgent-Systems-StarCraft2-PySC2-Rawとは?
    MultiAgent-Systems-StarCraft2-PySC2-Rawは、StarCraft IIで複数のAIエージェントを開発、訓練、評価するための完全なツールキットを提供します。ユニットの移動やターゲット指定、能力制御の低レベルコントロールを公開し、柔軟な報酬設計とシナリオ構成を可能にします。ユーザーはカスタムニューラルネットワークアーキテクチャを簡単に組み込み、チーム間の協調戦略を定義し、メトリクスを記録できます。PySC2上に構築されており、並列訓練、チェックポイント作成、可視化をサポートし、協調型・対抗型のマルチエージェント強化学習の研究を進めるのに理想的です。
フィーチャー