simple_rl은 강화 학습 연구와 교육을 간소화하기 위해 설계된 미니멀한 Python 라이브러리입니다. 환경과 에이전트 정의를 위한 일관된 API를 제공하며, Q-학습, 몬테카를로 방법, 가치 및 정책 반복과 같은 일반 RL 패러다임을 지원합니다. GridWorld, MountainCar, Multi-Armed Bandits와 같은 샘플 환경이 포함되어 있어 실습 실험이 용이합니다. 사용자들은 기본 클래스를 확장하여 맞춤형 환경 또는 에이전트를 구현할 수 있으며, 유틸리티 함수는 로깅, 성능 추적, 정책 평가를 담당합니다. 가벼운 구조와 깔끔한 코드로 빠른 프로토타이핑, RL 핵심 교육, 새 알고리즘 벤치마킹에 이상적입니다.
simple_rl 핵심 기능
사전 구축된 알고리즘: Q-학습, 몬테카를로, 가치반복, 정책반복
여러 샘플 환경: GridWorld, MountainCar, Multi-Armed Bandits
CommNet은 다중 에이전트가 각각의 시간 단계에서 숨겨진 상태를 공유하고 협력 환경에서 행동 조정을 학습할 수 있도록 하는 연구 지향 라이브러리입니다. 이 라이브러리에는 PyTorch 모델 정의, 훈련 및 평가 스크립트, OpenAI Gym 환경 래퍼, 통신 채널, 에이전트 수, 네트워크 깊이 등을 사용자 정의할 수 있는 유틸리티가 포함되어 있습니다. 연구자와 개발자는 CommNet을 사용하여 내비게이션, 추적-회피, 자원 수집 작업에서 에이전트 간 통신 전략을 프로토타입하고 벤치마킹할 수 있습니다.