초보자 친화적 훈련 스크립트 도구

간단한 설정과 쉬운 사용법을 제공하는 훈련 스크립트 도구로 시작부터 성공적인 작업을 만드세요.

훈련 스크립트

  • 공개 소스 PyTorch 기반 프레임워크로서 여러 에이전트 강화 학습에서 에이전트 간 통신을 가능하게 하는 CommNet 아키텍처를 구현하여 협력적 의사결정을 지원합니다.
    0
    0
    CommNet란?
    CommNet은 다중 에이전트가 각각의 시간 단계에서 숨겨진 상태를 공유하고 협력 환경에서 행동 조정을 학습할 수 있도록 하는 연구 지향 라이브러리입니다. 이 라이브러리에는 PyTorch 모델 정의, 훈련 및 평가 스크립트, OpenAI Gym 환경 래퍼, 통신 채널, 에이전트 수, 네트워크 깊이 등을 사용자 정의할 수 있는 유틸리티가 포함되어 있습니다. 연구자와 개발자는 CommNet을 사용하여 내비게이션, 추적-회피, 자원 수집 작업에서 에이전트 간 통신 전략을 프로토타입하고 벤치마킹할 수 있습니다.
  • 다중 에이전트 강화학습 작업에서 에이전트가 출현 커뮤니케이션 프로토콜을 학습할 수 있는 PyTorch 프레임워크.
    0
    0
    Learning-to-Communicate-PyTorch란?
    이 저장소는 PyTorch를 사용하여 다중 에이전트 강화학습에서 출현하는 커뮤니케이션을 구현합니다. 사용자들은 송신자와 수신자 신경망을 구성하여 참조 게임이나 협력 네비게이션을 수행하게 하고, 에이전트들이 이산 또는 연속 통신 채널을 개발하도록 격려합니다. 학습, 평가, 학습된 프로토콜 시각화 스크립트와 환경 생성, 메시지 인코딩/디코딩 유틸리티를 제공합니다. 연구자들은 맞춤형 작업을 확장하거나 네트워크 구조를 변경하고, 프로토콜 효율성을 분석하여 빠른 실험을 촉진할 수 있습니다.
  • 확장 가능한 협력적 의사 결정 및 환경 탐색 작업을 위한 출현 언어 기반 통신을 가능하게 하는 오픈 소스 다중 에이전트 프레임워크입니다.
    0
    0
    multi_agent_celar란?
    multi_agent_celar는 시뮬레이션 환경에서 여러 지능형 에이전트 간의 출현 언어 통신을 가능하게 하는 모듈식 AI 플랫폼입니다. 사용자는 정책 파일을 통해 에이전트 행동을 정의하고, 환경 매개변수를 구성하며, 에이전트가 협력 과제를 해결하기 위해 자체 통신 프로토콜을 발전시키는 조정된 훈련 세션을 실행할 수 있습니다. 이 프레임워크는 평가 스크립트, 시각화 도구 및 확장 가능한 실험 지원을 포함하여, 다중 에이전트 협업, 출현 언어, 의사 결정 과정에 관한 연구에 이상적입니다.
  • 경험 재생 및 대상 네트워크를 사용하여 Atari Breakout을 학습하는 오픈 소스 TensorFlow 기반의 Deep Q-Network 에이전트입니다.
    0
    0
    DQN-Deep-Q-Network-Atari-Breakout-TensorFlow란?
    DQN-Deep-Q-Network-Atari-Breakout-TensorFlow는 Atari Breakout 환경에 특화된 DQN 알고리즘의 완전한 구현입니다. Q 값을 근사하기 위해 컨volutional Neural Network를 사용하고, 연속 관측 간의 상관관계를 끊기 위해 경험 재생을 적용하며, 훈련 안정화를 위해 주기적으로 업데이트되는 대상 네트워크를 사용합니다. 에이전트는 epsilon-greedy 정책을 따르며, 원시 픽셀 입력에서 처음부터 훈련할 수 있습니다. 저장소에는 구성 파일, 에피소드별 보상 성장을 모니터링하는 훈련 스크립트, 훈련된 모델을 평가하는 평가 스크립트, TensorBoard 유틸리티를 통한 훈련 메트릭 시각화 도구가 포함되어 있습니다. 사용자는 학습률, 재생 버퍼 크기, 배치 크기와 같은 하이퍼파라미터를 조절하여 다양한 환경을 실험할 수 있습니다.
  • MARL-DPP는 다양한 정책을 장려하기 위해 결정점 프로세스(DPP)를 활용하여 다중 에이전트 강화 학습에서 다양성을 구현합니다.
    0
    0
    MARL-DPP란?
    MARL-DPP는 결정점 프로세스(DPP)를 통해 다양성을 강제하는 오픈소스 프레임워크입니다. 전통적인 MARL 접근법은 정책이 유사한 행동에 수렴하는 문제를 겪는데, MARL-DPP는 DPP 기반 지표를 활용하여 에이전트가 다양한 행동 분포를 유지하도록 장려합니다. 모듈형 코드를 제공하여 DPP를 훈련 목표, 정책 샘플링, 탐색 관리에 포함시키며, OpenAI Gym 및 Multi-Agent Particle Environment(MPE)와 즉시 통합됩니다. 또한 하이퍼파라미터 관리, 로깅, 다양성 메트릭 시각화 유틸리티를 포함합니다. 연구자는 협력적 과제, 자원 할당 및 경쟁 게임에서 다양성 제약의 영향을 평가할 수 있으며, 확장 가능한 설계 덕분에 사용자 정의 환경과 고급 알고리즘도 지원하여 새로운 MARL-DPP 변형을 탐구할 수 있습니다.
  • PyTorch와 Unity ML-Agents를 사용한 분산형 다중 에이전트 DDPG 강화 학습 구현으로 협력 에이전트 훈련을 지원합니다.
    0
    0
    Multi-Agent DDPG with PyTorch & Unity ML-Agents란?
    이 오픈소스 프로젝트는 PyTorch와 Unity ML-Agents를 기반으로 구축된 완전한 다중 에이전트 강화 학습 프레임워크를 제공합니다. 분산 DDPG 알고리즘, 환경 래퍼, 훈련 스크립트를 포함하며, 사용자들은 에이전트 정책, 비평 네트워크, 재현 버퍼, 병렬 훈련 워커를 구성할 수 있습니다. 로깅 후크는 TensorBoard 모니터링을 가능하게 하며, 모듈화된 코드는 사용자 지정 보상 함수와 환경 매개변수를 지원합니다. 저장된 Unity 예제 씬은 협력 탐색 작업을 시연하며, 시뮬레이션에서 다중 에이전트 시나리오 확장과 벤치마킹에 이상적입니다.
추천