초보자 친화적 樣本效率 도구

간단한 설정과 쉬운 사용법을 제공하는 樣本效率 도구로 시작부터 성공적인 작업을 만드세요.

樣本效率

  • 성능이 저조한 에이전트를 이전 최고의 성과로 재설정하여 다중 에이전트 강화 학습의 안정성과 성능을 향상시키는 DRL 파이프라인입니다.
    0
    0
    Selective Reincarnation for Multi-Agent Reinforcement Learning란?
    Selective Reincarnation은 멀티 에이전트 강화 학습에 맞춘 동적 인구 기반 훈련 메커니즘을 도입합니다. 각 에이전트의 성과는 미리 정의된 임계값에 따라 정기적으로 평가됩니다. 에이전트의 성과가 임계값 이하로 떨어지면, 그 가중치는 현재 최고 성과 에이전트의 가중치로 재설정되어 검증된 행동을 재현합니다. 이 접근 방식은 저성과 에이전트만 재설정하여 다양성을 유지하며, 파괴적인 재설정을 최소화하면서 고보상 정책으로의 탐색을 유도합니다. 신경망 매개변수의 선택적 유산(전달)을 가능하게 하여, 분산 또는 협력 환경에서의 분산성을 줄이고 수렴 속도를 높입니다. 정책 기울기 기반 MARL 알고리즘과 호환되며, 평가 주기, 선택 기준, 재설정 전략 조정을 위한 구성 가능한 하이퍼파라미터를 포함합니다.
  • Text-to-Reward는 자연어 지시문으로부터 일반적인 보상 모델을 학습하여 RL 에이전트를 효과적으로 안내합니다.
    0
    0
    Text-to-Reward란?
    Text-to-Reward는 텍스트 기반 작업 설명 또는 피드백을 RL 에이전트의 스칼라 보상 값으로 매핑하는 보상 모델을 훈련하는 파이프라인을 제공합니다. 트랜스포머 기반 아키텍처와 수집된 인간 선호 데이터로 미세 조정하여 자연어 지시문을 보상 신호로 해석하는 방식을 자동으로 학습합니다. 사용자는 텍스트 프롬프트를 통해 임의의 작업 정의가 가능하며, 모델을 훈련시키고 학습된 보상 함수를 어떤 RL 알고리즘에든 통합할 수 있습니다. 이 방식은 수작업 보상 설계를 제거하고 샘플 효율성을 향상시키며, 에이전트가 복잡한 다단계 지시를 따라가도록 지원합니다.
추천