Ant_racer는 다중 에이전트 강화 학습 연구를 위해 게임 환경을 제공하는 가상 다중 에이전트 추적-도주 플랫폼입니다. OpenAI Gym과 Mujoco를 기반으로 하며, 추적 및 도주 작업에서 여러 자율 에이전트 간의 상호작용을 시뮬레이션할 수 있습니다. 이 플랫폼은 물리적으로 현실적인 환경에서 DDPG와 같은 강화 학습 알고리즘 구현 및 테스트를 지원합니다. 동적 시나리오에서 AI 다중 에이전트 행동에 관심 있는 연구자 및 개발자에게 유용합니다.
Ant_racer을 사용할 사람은?
AI 연구원
머신러닝 실무자
로봇 개발자
다중 에이전트 시스템 연구원
강화 학습을 공부하는 학생
Ant_racer 사용 방법은?
1단계: Mujoco200 및 라이선스를 ~/.mujoco/에 다운로드 및 설치
2단계: 환경 변수 LD_LIBRARY_PATH를 Mujoco의 bin 디렉터리로 설정
3단계: ant_racer_env.yml를 사용하여 아나콘다 가상 환경 생성 및 활성화
4단계: Ant_racer GitHub 저장소를 복제하고 해당 폴더로 이동
5단계: 환경 내의 gym 폴더를 저장소의 폴더로 교체
6단계: 'python chase_demo.py'를 실행하여 데모를 실행하고 표시 오류 해결