초보자 친화적 연속 행동 공간 도구

간단한 설정과 쉬운 사용법을 제공하는 연속 행동 공간 도구로 시작부터 성공적인 작업을 만드세요.

연속 행동 공간

  • 협력 및 경쟁 다중 에이전트 강화 학습을 위한 Keras 기반 Multi-Agent Deep Deterministic Policy Gradient의 구현.
    0
    0
    MADDPG-Keras란?
    MADDPG-Keras는 Keras에 구현된 MADDPG 알고리즘을 통해 다중 에이전트 강화 학습 연구를 위한 완전한 프레임워크를 제공합니다. 연속 행동 공간, 여러 에이전트, 표준 OpenAI Gym 환경을 지원하며, 연구자와 개발자는 신경망 구조, 학습 하이퍼파라미터, 보상 함수를 구성할 수 있으며, 내장 로깅과 모델 체크포인트 기능을 이용하여 실험을 빠르게 수행하고 벤치마킹할 수 있습니다.
  • MAGAIL은 생성적 적대적 훈련을 통해 여러 에이전트가 전문가 시범을 모방할 수 있게 하여 유연한 다중 에이전트 정책 학습을 촉진합니다.
    0
    0
    MAGAIL란?
    MAGAIL은 전문가 시범에서 협력 행동을 학습할 수 있도록 하는 다중 에이전트 확장을 구현한 것으로, 파이썬 기반으로 PyTorch(또는 TensorFlow 버전)를 지원하며, 정책(생성기)과 판별자 모듈이 적대적 루프에서 훈련됩니다. 에이전트는 OpenAI Multi-Agent Particle Environment 또는 PettingZoo와 같은 환경에서 궤적을 생성하며, 판별자는 이를 전문 데이터와 일치 여부를 평가하는 데 사용합니다. 반복적인 업데이트를 통해 정책 네트워크는 명시적 보상 함수 없이 전문가와 유사한 전략으로 수렴합니다. MAGAIL의 모듈형 설계는 네트워크 구조, 전문가 데이터 입력, 환경 통합, 학습 하이퍼파라미터를 사용자 정의할 수 있도록 합니다. 또한, 내장된 로깅과 TensorBoard 시각화를 통해 멀티에이전트 학습의 진행 상황과 성능 지표를 모니터링하고 분석할 수 있습니다.
추천