초보자 친화적 ИИ для StarCraft II 도구

간단한 설정과 쉬운 사용법을 제공하는 ИИ для StarCraft II 도구로 시작부터 성공적인 작업을 만드세요.

ИИ для StarCraft II

  • 모듈식 네트워크 구조와 셀프 플레이를 통한 스타크래프트 II RL 에이전트 훈련이 가능한 AlphaStar의 간소화된 PyTorch 구현.
    0
    0
    mini-AlphaStar란?
    mini-AlphaStar는 복잡한 AlphaStar 아키텍처를 해독하여 스타크래프트 II AI 개발을 위한 접근 가능하고 오픈소스인 PyTorch 프레임워크를 제공합니다. 화면 및 미니맵 입력을 위한 공간 특징 인코더, 비공간 특징 처리, LSTM 메모리 모듈, 행동 선택과 상태 평가를 위한 별도 정책 및 가치 네트워크를 갖추고 있습니다. 모방 학습으로 부트스트래핑하고, 셀프 플레이를 통한 강화 학습으로 미세 조정하며, pysc2를 통한 StarCraft II 환경 래퍼, 텐서보드 로깅 및 사용자 설정 가능한 하이퍼파라미터를 지원합니다. 연구원과 학생들은 인간 플레이 데이터셋을 생성하고, 사용자 정의 시나리오에서 모델을 훈련하며, 에이전트 성능을 평가하고 학습 곡선을 시각화할 수 있습니다. 모듈식 코드베이스는 네트워크 변형, 훈련 일정 및 다중 에이전트 설정을 쉽게 실험할 수 있게 합니다. 교육과 프로토타이핑에 초점을 맞췄으며, 배포용으로는 적합하지 않습니다.
    mini-AlphaStar 핵심 기능
    • 공간 및 비공간 특징 인코딩
    • LSTM 기반 메모리 모듈
    • 별개의 정책 및 가치 네트워크
    • 모방 학습과 강화 학습 파이프라인
    • pysc2를 통한 셀프 플레이 환경 래퍼
    • 텐서보드 로깅 및 시각화
    • 설정 가능한 하이퍼파라미터
    • 모듈형 PyTorch 코드베이스
  • DeepMind의 PySC2 환경을 활용하는 PPO 기반 오픈소스 강화학습 에이전트로 StarCraft II를 훈련 및 플레이합니다.
    0
    0
    StarCraft II Reinforcement Learning Agent란?
    이 저장소는 StarCraft II 게임 플레이 연구를 위한 엔드-투-엔드 강화학습 프레임워크를 제공합니다. 핵심 에이전트는 PySC2 환경의 관측 데이터를 해석하여 정밀한 게임 내 행동을 출력하는 정책 네트워크를 학습하기 위해 PPO를 사용합니다. 개발자는 신경망 계층, 보상 설계, 학습 일정을 구성하여 성능을 최적화할 수 있습니다. 이 시스템은 샘플 수집의 효율성을 위한 다중 프로세싱, 학습 곡선을 모니터링하는 로깅 유틸리티, 스크립트 또는 내장 AI 대전용 평가 스크립트를 지원합니다. 코드는 Python으로 작성되었으며 TensorFlow를 활용하여 모델 정의 및 최적화를 수행합니다. 사용자는 사용자 정의 보상 함수, 상태 전처리, 네트워크 아키텍처 등 구성요소를 확장할 수 있습니다.
추천