초보자 친화적 사용자 정의 보상 함수 도구

간단한 설정과 쉬운 사용법을 제공하는 사용자 정의 보상 함수 도구로 시작부터 성공적인 작업을 만드세요.

사용자 정의 보상 함수

  • gym-fx는 외환 거래 전략을 위한 강화 학습 에이전트를 훈련하고 평가할 수 있는 맞춤형 OpenAI Gym 환경을 제공합니다.
    0
    0
    gym-fx란?
    gym-fx는 OpenAI Gym 인터페이스를 사용하는 시뮬레이션된 외환 거래 환경을 구현하는 오픈소스 Python 라이브러리입니다. 다수의 통화 쌍 지원, 과거 가격 피드 통합, 기술 지표, 그리고 완전히 맞춤형 보상 함수를 제공합니다. 표준화된 API를 통해, gym-fx는 알고리즘 거래용 강화 학습 알고리즘 벤치마킹 및 개발 프로세스를 간소화합니다. 사용자는 시장 슬리피지, 거래 비용, 관찰 공간을 조정하여 실시간 거래 시나리오와 유사하게 만들어, 전략 개발과 평가를 견고하게 지원합니다.
  • MAPF_G2RL은 그래프 상에서 효율적인 다중 에이전트 경로 탐색을 위한 딥 강화 학습 에이전트를 훈련하는 파이썬 프레임워크입니다.
    0
    0
    MAPF_G2RL란?
    MAPF_G2RL은 그래프 이론과 딥 강화 학습을 연결하여 다중 에이전트 경로 탐색(MAPF) 문제를 해결하는 오픈소스 연구 프레임워크입니다. 노드와 엣지를 벡터 표현으로 인코딩하고, 공간적 및 충돌 인지 보상 함수를 정의하며, DQN, PPO, A2C와 같은 다양한 RL 알고리즘을 지원합니다. 이 프레임워크는 랜덤 그래프 생성 또는 실제 지도 임포트로 시나리오 생성을 자동화하고, 동시에 여러 에이전트의 정책을 최적화하는 훈련 루프를 조율합니다. 학습 후, 에이전트는 시뮬레이션 환경에서 경로 최적성, 소요 시간, 성공률을 평가합니다. 모듈형 설계로 연구자는 핵심 컴포넌트를 확장하고, 새로운 MARL 기법을 통합하며, 기존 솔버와 비교 벤치마킹할 수 있습니다.
  • MARFT는 협력 AI 워크플로우와 언어 모델 최적화를 위한 오픈 소스 다중 에이전트 RL 파인튜닝 툴킷입니다.
    0
    0
    MARFT란?
    MARFT는 재현 가능한 실험과 협력 AI 시스템의 빠른 프로토타이핑을 가능하게 하는 Python 기반의 LLM입니다.
  • PyTorch와 Unity ML-Agents를 사용한 분산형 다중 에이전트 DDPG 강화 학습 구현으로 협력 에이전트 훈련을 지원합니다.
    0
    0
    Multi-Agent DDPG with PyTorch & Unity ML-Agents란?
    이 오픈소스 프로젝트는 PyTorch와 Unity ML-Agents를 기반으로 구축된 완전한 다중 에이전트 강화 학습 프레임워크를 제공합니다. 분산 DDPG 알고리즘, 환경 래퍼, 훈련 스크립트를 포함하며, 사용자들은 에이전트 정책, 비평 네트워크, 재현 버퍼, 병렬 훈련 워커를 구성할 수 있습니다. 로깅 후크는 TensorBoard 모니터링을 가능하게 하며, 모듈화된 코드는 사용자 지정 보상 함수와 환경 매개변수를 지원합니다. 저장된 Unity 예제 씬은 협력 탐색 작업을 시연하며, 시뮬레이션에서 다중 에이전트 시나리오 확장과 벤치마킹에 이상적입니다.
  • RL Shooter는 AI 에이전트를 탐색하고 목표물을 사격하도록 훈련시키기 위한 커스터마이징 가능한 Doom 기반 강화 학습 환경을 제공합니다.
    0
    0
    RL Shooter란?
    RL Shooter는 ViZDoom과 OpenAI Gym API를 통합하는 파이썬 기반 프레임워크로, FPS 게임을 위한 유연한 강화 학습 환경을 만듭니다. 사용자는 사용자 정의 시나리오, 맵, 보상 구조를 정의하여 탐색, 타겟 감지, 사격 작업에 사용할 수 있습니다. 조정 가능한 관찰 프레임, 행동 공간, 로깅 기능을 갖추고 있어 Stable Baselines 및 RLlib과 같은 인기 딥 RL 라이브러리를 지원하며, 성능 추적과 실험 재현성을 보장합니다.
  • 가볍고 사용자 정의 가능한 2D 격자 환경을 만들어 강화 학습 에이전트를 훈련하고 시험할 수 있는 파이썬 라이브러리입니다.
    0
    0
    Simple Playgrounds란?
    Simple Playgrounds는 에이전트가 미로를 탐색하고, 객체와 상호작용하며, 작업을 완료할 수 있는 인터랙티브 2D 격자 환경을 구축하기 위한 모듈형 플랫폼입니다. 사용자는 YAML 또는 Python 스크립트를 통해 환경 레이아웃, 객체 행동, 보상 기능을 정의합니다. 통합된 Pygame 렌더러는 실시간 시각화를 제공하며, 스텝 기반 API는 Stable Baselines3와 같은 RL 라이브러리와의 원활한 통합을 보장합니다. 멀티에이전트 세팅, 충돌 감지, 커스터마이징 가능한 물리 파라미터를 지원하여 프로토타입 제작, 벤치마킹, 교육적 데모를 간소화합니다.
  • Gym-Recsys는 확장 가능한 강화 학습 추천 에이전트의 학습 및 평가를 위한 맞춤형 OpenAI Gym 환경을 제공합니다.
    0
    0
    Gym-Recsys란?
    Gym-Recsys는 추천 작업을 OpenAI Gym 환경으로 래핑하는 도구 모음으로, 강화 학습 알고리즘이 시뮬레이션된 사용자-항목 행렬과 단계별로 상호작용할 수 있도록 합니다. 합성 사용자 행동 생성기, 인기 데이터셋 로드 기능, Precision@K 및 NDCG와 같은 표준 추천 지표를 제공합니다. 사용자들은 보상 함수, 사용자 모델, 아이템 풀을 맞춤형으로 설정하여 재현 가능한 방식으로 다양한 RL 기반 추천 전략을 실험할 수 있습니다.
추천