초보자 친화적 cooperative environments 도구

간단한 설정과 쉬운 사용법을 제공하는 cooperative environments 도구로 시작부터 성공적인 작업을 만드세요.

cooperative environments

  • 공개 소스 PyTorch 기반 프레임워크로서 여러 에이전트 강화 학습에서 에이전트 간 통신을 가능하게 하는 CommNet 아키텍처를 구현하여 협력적 의사결정을 지원합니다.
    0
    0
    CommNet란?
    CommNet은 다중 에이전트가 각각의 시간 단계에서 숨겨진 상태를 공유하고 협력 환경에서 행동 조정을 학습할 수 있도록 하는 연구 지향 라이브러리입니다. 이 라이브러리에는 PyTorch 모델 정의, 훈련 및 평가 스크립트, OpenAI Gym 환경 래퍼, 통신 채널, 에이전트 수, 네트워크 깊이 등을 사용자 정의할 수 있는 유틸리티가 포함되어 있습니다. 연구자와 개발자는 CommNet을 사용하여 내비게이션, 추적-회피, 자원 수집 작업에서 에이전트 간 통신 전략을 프로토타입하고 벤치마킹할 수 있습니다.
    CommNet 핵심 기능
    • CommNet 아키텍처의 PyTorch 구현
    • 에이전트 간 은닉 상태 통신 모듈
    • 구성 가능한 네트워크 계층 및 에이전트 수
    • 훈련 및 평가 스크립트
    • OpenAI Gym 환경 래퍼
    • 로깅 및 체크포인트 유틸리티
  • 성능이 저조한 에이전트를 이전 최고의 성과로 재설정하여 다중 에이전트 강화 학습의 안정성과 성능을 향상시키는 DRL 파이프라인입니다.
    0
    0
    Selective Reincarnation for Multi-Agent Reinforcement Learning란?
    Selective Reincarnation은 멀티 에이전트 강화 학습에 맞춘 동적 인구 기반 훈련 메커니즘을 도입합니다. 각 에이전트의 성과는 미리 정의된 임계값에 따라 정기적으로 평가됩니다. 에이전트의 성과가 임계값 이하로 떨어지면, 그 가중치는 현재 최고 성과 에이전트의 가중치로 재설정되어 검증된 행동을 재현합니다. 이 접근 방식은 저성과 에이전트만 재설정하여 다양성을 유지하며, 파괴적인 재설정을 최소화하면서 고보상 정책으로의 탐색을 유도합니다. 신경망 매개변수의 선택적 유산(전달)을 가능하게 하여, 분산 또는 협력 환경에서의 분산성을 줄이고 수렴 속도를 높입니다. 정책 기울기 기반 MARL 알고리즘과 호환되며, 평가 주기, 선택 기준, 재설정 전략 조정을 위한 구성 가능한 하이퍼파라미터를 포함합니다.
추천