- 1단계: GitHub에서 저장소를 클론하여 로컬 머신에 복제하세요.
- 2단계: StarCraft II, PySC2, TensorFlow/PyTorch 등 필요한 의존성을 설치하세요.
- 3단계: 환경 구성 파일에 맵 시나리오와 보상 함수 구성을 진행하세요.
- 4단계: agents 폴더에 자신의 에이전트 정책 네트워크를 정의하거나 가져오세요.
- 5단계: 훈련 스크립트를 실행하여 다중 에이전트 RL 실험을 시작하세요.
- 6단계: 내장된 시각화 도구를 통해 로그와 지표를 모니터링하세요.
- 7단계: 커스텀 또는 벤치마크 맵에서 훈련된 에이전트를 평가하세요.