專業StarCraft II AI工具

專為高效與穩定性設計的StarCraft II AI工具,是實現專業成果的不二選擇。

StarCraft II AI

  • 一個開源的增強學習代理,利用PPO在DeepMind的PySC2環境中訓練並玩星際爭霸II。
    0
    0
    StarCraft II Reinforcement Learning Agent 是什麼?
    此存儲庫提供一個完整的星際爭霸II遊戲研究增強學習框架。核心代理使用PPO來學習策略網絡,詮釋來自PySC2環境的觀察數據,並輸出精確的遊戲內動作。開發者可以配置神經網絡層、獎勵塑造與訓練計劃,以優化性能。系統支持多處理技術以高效收集樣本,並包含監控訓練曲線的日誌工具與測試已訓練策略的評估腳本(對完成或內建的AI對手)。程式碼以Python撰寫,利用TensorFlow進行模型定義與優化。用戶可以擴展自定義獎勵函數、狀態前處理或網路架構,以符合特定研究需求。
  • 精簡版PyTorch實現AlphaStar,實現星海爭霸II的強化學習代理,自訂模組化網絡架構與自我對弈。
    0
    0
    mini-AlphaStar 是什麼?
    mini-AlphaStar透過提供一個易於存取的開源PyTorch框架,幫助解開複雜的AlphaStar架構。內含空間特徵編碼器用於螢幕和縮圖輸入,非空間特徵處理,LSTM記憶模組,以及用於動作選擇與狀態評估的獨立策略與價值網絡。利用模仿學習啟動,並透過自我對弈的強化學習進行微調,支援與pysc2相容的環境封裝器,TensorBoard日誌與可配置超參數。研究人員與學生能從人類遊戲中建立資料集,根據自訂情境訓練模型,評估代理表現,並可視化學習曲線。模組化的程式碼庫方便實驗不同網絡變體、訓練流程和多代理設定。設計用於教學與快速原型,不用於正式部署。
  • 一個開源的多智能體強化學習框架,通過PySC2在星際爭霸II中實現原始層級的代理控制與協調。
    0
    0
    MultiAgent-Systems-StarCraft2-PySC2-Raw 是什麼?
    MultiAgent-Systems-StarCraft2-PySC2-Raw提供一整套工具組,用於在星際爭霸II中開發、訓練與評估多個AI代理。它暴露低層次控制單位移動、目標指向和技能,同時支持彈性的獎勵設計與場景配置。用戶可以輕鬆插入自定義神經網路架構、定義隊伍協調策略,並記錄指標。基於PySC2,支援並行訓練、檢查點與視覺化,非常適合推動合作與對抗多智能體強化學習的研究。
精選