초보자 친화적 다중 에이전트 강화 학습 도구

간단한 설정과 쉬운 사용법을 제공하는 다중 에이전트 강화 학습 도구로 시작부터 성공적인 작업을 만드세요.

다중 에이전트 강화 학습

  • 성능이 저조한 에이전트를 이전 최고의 성과로 재설정하여 다중 에이전트 강화 학습의 안정성과 성능을 향상시키는 DRL 파이프라인입니다.
    0
    0
    Selective Reincarnation for Multi-Agent Reinforcement Learning란?
    Selective Reincarnation은 멀티 에이전트 강화 학습에 맞춘 동적 인구 기반 훈련 메커니즘을 도입합니다. 각 에이전트의 성과는 미리 정의된 임계값에 따라 정기적으로 평가됩니다. 에이전트의 성과가 임계값 이하로 떨어지면, 그 가중치는 현재 최고 성과 에이전트의 가중치로 재설정되어 검증된 행동을 재현합니다. 이 접근 방식은 저성과 에이전트만 재설정하여 다양성을 유지하며, 파괴적인 재설정을 최소화하면서 고보상 정책으로의 탐색을 유도합니다. 신경망 매개변수의 선택적 유산(전달)을 가능하게 하여, 분산 또는 협력 환경에서의 분산성을 줄이고 수렴 속도를 높입니다. 정책 기울기 기반 MARL 알고리즘과 호환되며, 평가 주기, 선택 기준, 재설정 전략 조정을 위한 구성 가능한 하이퍼파라미터를 포함합니다.
  • Python에서 여러 지도, 에이전트 구성 및 강화 학습 인터페이스와 함께 사용자 정의 가능한 다중 에이전트 순찰 환경을 제공합니다.
    0
    0
    Patrolling-Zoo란?
    Patrolling-Zoo는 Python에서 다중 에이전트 순찰 작업을 생성하고 실험할 수 있는 유연한 프레임워크를 제공합니다. 이 라이브러리에는 감시, 모니터링, 커버리지 시나리오를 시뮬레이션하는 다양한 격자 기반 및 그래프 기반 환경이 포함되어 있습니다. 사용자는 에이전트 수, 맵 크기, 토폴로지, 보상 함수, 관측 공간을 구성할 수 있습니다. PettingZoo 및 Gym API와의 호환성 덕분에 인기 있는 강화 학습 알고리즘과 원활하게 통합됩니다. 이 환경은 일관된 설정에서 MARL 기법의 벤치마크 및 비교를 용이하게 합니다. 표준 시나리오와 새로운 시나리오를 맞춤화하는 도구를 제공하여 Patrolling-Zoo는 자율 로보틱스, 보안 감시, 수색 및 구조 작업, 대규모 영역 커버리지 연구를 가속화합니다.
  • 통신과 보상이 가변적인 협력 검색 작업을 위한 파이썬 기반 다중 에이전트 강화 학습 환경입니다.
    0
    0
    Cooperative Search Environment란?
    협력검색환경은 이산 격자와 연속 공간 모두에서 협력 검색 작업에 적합한 유연한 gym 호환 다중 에이전트 강화 학습 환경을 제공합니다. 에이전트는 부분 관측 하에 작동하며, 사용자 정의 가능한 통신 토폴로지를 기반으로 정보를 공유할 수 있습니다. 이 프레임워크는 검색 및 구호, 동적 목표 추적, 공동 매핑과 같은 사전 정의된 시나리오를 지원하며, 사용자 지정 환경과 보상 구조를 정의하는 API를 제공합니다. Stable Baselines3와 Ray RLlib과 같은 인기 RL 라이브러리와 원활하게 통합되어 있으며, 성능 분석을 위한 로깅 유틸리티와 실시간 모니터링을 위한 시각화 도구를 포함하고 있습니다. 연구자들은 격자 크기, 에이전트 수, 센서 범위, 보상 공유 메커니즘 등을 조정하여 협력 전략을 평가하고 새로운 알고리즘의 벤치마크를 할 수 있습니다.
  • CrewAI-Learning은 사용자 정의 가능한 환경과 내장 학습 유틸리티를 갖춘 협력형 다중 에이전트 강화 학습을 가능하게 합니다.
    0
    0
    CrewAI-Learning란?
    CrewAI-Learning은 다중 에이전트 강화 학습 프로젝트를 간소화하도록 설계된 오픈소스 라이브러리입니다. 환경 구조, 모듈형 에이전트 정의, 사용자 정의 보상 함수, DQN, PPO, A3C와 같은 협력 작업에 적합한 내장 알고리즘을 제공합니다. 사용자는 시나리오 정의, 훈련 루프 관리, 메트릭 로깅 및 결과 시각화를 수행할 수 있습니다. 프레임워크는 에이전트 팀 및 보상 공유 전략의 동적 구성을 지원하여 다양한 분야에서 프로토타이핑, 평가 및 최적화를 용이하게 합니다.
  • MARL-DPP는 다양한 정책을 장려하기 위해 결정점 프로세스(DPP)를 활용하여 다중 에이전트 강화 학습에서 다양성을 구현합니다.
    0
    0
    MARL-DPP란?
    MARL-DPP는 결정점 프로세스(DPP)를 통해 다양성을 강제하는 오픈소스 프레임워크입니다. 전통적인 MARL 접근법은 정책이 유사한 행동에 수렴하는 문제를 겪는데, MARL-DPP는 DPP 기반 지표를 활용하여 에이전트가 다양한 행동 분포를 유지하도록 장려합니다. 모듈형 코드를 제공하여 DPP를 훈련 목표, 정책 샘플링, 탐색 관리에 포함시키며, OpenAI Gym 및 Multi-Agent Particle Environment(MPE)와 즉시 통합됩니다. 또한 하이퍼파라미터 관리, 로깅, 다양성 메트릭 시각화 유틸리티를 포함합니다. 연구자는 협력적 과제, 자원 할당 및 경쟁 게임에서 다양성 제약의 영향을 평가할 수 있으며, 확장 가능한 설계 덕분에 사용자 정의 환경과 고급 알고리즘도 지원하여 새로운 MARL-DPP 변형을 탐구할 수 있습니다.
  • 오픈 소스 다중 에이전트 강화 학습 시뮬레이터로 확장 가능한 병렬 학습, 사용자 정의 환경 및 에이전트 통신 프로토콜을 지원합니다.
    0
    0
    MARL Simulator란?
    MARL Simulator는 효율적이고 확장 가능한 다중 에이전트 강화 학습(MARL) 알고리즘 개발을 촉진하기 위해 설계되었습니다. PyTorch의 분산 백엔드를 활용하여 사용자가 여러 GPU 또는 노드에서 병렬 학습을 실행할 수 있도록 하여 실험 시간을 크게 줄입니다. 시뮬레이터는 협력 내비게이션, 포식자-피식자, 격자 세계 등과 사용자 정의 환경을 지원하는 모듈형 환경 인터페이스를 제공합니다. 에이전트는 다양한 통신 프로토콜을 활용하여 행동을 조정하고, 관측을 공유하며, 보상을 동기화할 수 있습니다. 구성 가능한 보상 및 관측 공간은 학습 역학에 세밀한 제어를 가능하게 하며, 내장 로깅 및 시각화 도구는 성능 지표에 대한 실시간 통찰력을 제공합니다.
  • 맞춤형 공급망 시뮬레이션 환경을 제공하는 다중 에이전트 강화 학습 플랫폼으로 AI 에이전트를 효과적으로 훈련하고 평가할 수 있습니다.
    0
    0
    MARO란?
    MARO(다중 에이전트 자원 최적화)는 공급망, 물류, 자원 관리를 위한 다중 에이전트 강화 학습 에이전트의 개발과 평가를 지원하는 파이썬 기반 프레임워크입니다. 재고 관리, 트럭 예약, 크로스 도킹, 컨테이너 임대 등 환경 템플릿을 포함하고 있습니다. 통합된 에이전트 API, 내장된 실험 추적기, 대규모 훈련을 위한 병렬 시뮬레이션 기능, 성능 분석을 위한 시각화 도구를 제공합니다. 모듈식으로 설계되어 확장 가능하며, 인기 있는 RL 라이브러리와 통합되어 재현 가능한 연구와 신속한 AI 최적화 프로토타이핑을 가능하게 합니다.
  • MARTI는 다중 에이전트 강화 학습 실험을 위한 표준화된 환경과 벤치마킹 도구를 제공하는 오픈소스 툴킷입니다.
    0
    0
    MARTI란?
    MARTI(다중 에이전트 강화 학습 툴킷 및 인터페이스)는 다중 에이전트 RL 알고리즘의 개발, 평가 및 벤치마킹을 간소화하는 연구 중심 프레임워크입니다. 사용자 정의 환경, 에이전트 정책, 보상 구조, 통신 프로토콜을 구성할 수 있는 플러그 앤 플레이 아키텍처를 제공합니다. MARTI는 인기 딥러닝 라이브러리와 통합되며, GPU 가속 및 분산 훈련을 지원하며, 성능 분석을 위한 상세 로그와 시각화를 생성합니다. 모듈식 설계 덕분에 새로운 접근법의 빠른 프로토타이핑과 표준 베이스라인과의 체계적 비교가 가능하며, 자율 시스템, 로보틱스, 게임 AI, 협력 멀티에이전트 시나리오 등의 분야에 이상적입니다.
  • Mava는 InstaDeep가 개발한 오픈소스 다중 에이전트 강화학습 프레임워크로, 모듈형 훈련과 분산 지원을 제공합니다.
    0
    0
    Mava란?
    Mava는 다중 에이전트 강화 학습 시스템 개발, 훈련, 평가를 위한 JAX 기반 오픈소스 라이브러리입니다. MAPPO와 MADDPG 같은 협력 및 경쟁 알고리즘의 사전 구현과 단일 노드 및 분산 워크플로우를 지원하는 구성 가능한 훈련 루프를 제공합니다. 연구자는 PettingZoo에서 환경을 가져오거나 커스텀 환경을 정의할 수 있으며, 정책 최적화, 재생 버퍼 관리, 메트릭 로깅을 위한 Mava의 모듈형 구성요소를 사용할 수 있습니다. 프레임워크의 유연한 구조는 새로운 알고리즘, 사용자 정의 관측 공간, 보상 구조의 원활한 통합을 가능하게 합니다. JAX의 자동 벡터화 및 하드웨어 가속 기능을 활용하여 Mava는 효율적인 대규모 실험과 다양한 다중 에이전트 시나리오에서의 재현 가능한 벤치마킹을 보장합니다.
  • MGym은 환경 생성, 시뮬레이션, 벤치마킹을 위한 표준화된 API를 갖춘 커스터마이징 가능한 다중 에이전트 강화 학습 환경을 제공합니다.
    0
    0
    MGym란?
    MGym은 Python에서 다중 에이전트 강화 학습(MARL) 환경을 구축하고 관리하기 위한 전문 프레임워크입니다. 여러 에이전트가 포함된 복잡한 시나리오를 정의할 수 있으며, 각각 커스터마이즈 가능한 관측·행동 공간, 보상 함수, 상호작용 규칙을 가집니다. MGym은 동기 및 비동기 실행 모드를 지원하며, 병행과 회전 기반 에이전트 시뮬레이션을 제공합니다. Gym과 유사한 API로 설계되어 Stable Baselines, RLlib, PyTorch와 원활히 통합됩니다. 환경 벤치마킹, 결과 시각화, 성능 분석을 위한 유틸리티 모듈도 포함되어 있어 MARL 알고리즘의 체계적 평가가 가능합니다. 모듈식 구조로 협력적, 경쟁적 또는 혼합형 에이전트 태스크를 빠르게 프로토타이핑할 수 있어 연구자와 개발자가 MARL 실험과 연구를 가속화할 수 있습니다.
  • 그리드 기반 세계에서 여러 협력 및 경쟁 에이전트 광부들이 자원을 수집하는 RL 환경으로, 다중 에이전트 학습을 위한 시뮬레이션입니다.
    0
    0
    Multi-Agent Miners란?
    Multi-Agent Miners는 여러 자율 광부 에이전트들이 이동하고 채굴하며 자원을 수집하는 그리드 월드 환경을 제공합니다. 설정 가능한 맵 크기, 에이전트 수, 보상 구조를 지원하며 경쟁 또는 협력 시나리오를 생성할 수 있습니다. 프레임워크는 PettingZoo를 통해 인기 있는 RL 라이브러리와 통합되어 재설정, 단계 및 렌더링 함수에 대한 표준 API를 제공합니다. 시각화 모드와 로깅 지원으로 행동과 결과 분석이 가능하며, 연구, 교육 및 알고리즘 벤치마킹에 적합합니다.
  • 다양한 환경에서 협력적 및 경쟁적 다중 에이전트 강화학습 알고리즘을 훈련하고 평가하기 위한 오픈소스 프레임워크.
    0
    0
    Multi-Agent Reinforcement Learning란?
    alaamoheb의 다중 에이전트 강화학습 라이브러리는 공유 환경에서 다수의 에이전트 개발, 훈련 및 평가를 용이하게 하는 포괄적인 오픈소스입니다. DQN, PPO, MADDPG 등을 포함한 가치 기반 및 정책 기반 알고리즘의 모듈식 구현을 갖추고 있습니다. 이 저장소는 OpenAI Gym, Unity ML-Agents, StarCraft Multi-Agent Challenge와의 통합을 지원하며, 연구와 현실 영감의 시나리오 모두에 실험을 가능하게 합니다. YAML 기반 실험 설정, 로깅 유틸리티, 시각화 도구를 통해 학습 곡선 모니터링, 하이퍼파라미터 조정, 다양한 알고리즘 비교가 가능합니다. 이 프레임워크는 협력, 경쟁 및 혼합 다중 에이전트 작업 실험을 가속화하며 재현 가능한 연구와 벤치마킹을 돕습니다.
  • 커스터마이징 가능한 협력 및 경쟁 시나리오를 지원하는 gym과 유사한 API를 갖춘 파이썬 기반 다중 에이전트 강화 학습 환경입니다.
    0
    0
    multiagent-env란?
    multiagent-env는 다중 에이전트 강화 학습 환경의 생성과 평가를 간소화하도록 설계된 오픈소스 파이썬 라이브러리입니다. 사용자들은 에이전트 수, 행동 및 관측 공간, 보상 함수, 환경 역학을 지정하여 협력 및 적대적 시나리오를 정의할 수 있습니다. 실시간 시각화, 커스터마이징 가능한 렌더링, Stable Baselines, RLlib과 같은 파이썬 기반 RL 프레임워크와의 손쉬운 통합을 지원합니다. 모듈화된 설계로 새로운 시나리오의 빠른 프로토타이핑과 다중 에이전트 알고리즘의 간단한 벤치마킹이 가능합니다.
  • 협력 전략 개발 및 평가를 촉진하기 위해 여러 강화 학습 에이전트 간의 예측 기반 보상 공유를 구현합니다.
    0
    0
    Multiagent-Prediction-Reward란?
    Multiagent-Prediction-Reward는 다중 에이전트 강화 학습을 위해 예측 모델과 보상 분배 메커니즘을 통합하는 연구 지향적 프레임워크입니다. 환경 래퍼, 동료 행동 예측을 위한 신경망 모듈, 에이전트 성능에 적응하는 사용자 정의 가능한 보상 라우팅 로직을 포함합니다. 이 리포지터리는 구성 파일, 예제 스크립트, 평가 대시보드를 제공하여 협력 과제에 대한 실험을 수행할 수 있습니다. 사용자는 새 보상 기능 테스트, 새로운 환경 통합, 기존 다중 에이전트 RL 알고리즘과의 벤치마킹 등을 확장할 수 있습니다.
  • 협력 및 경쟁 환경을 위한 다중 에이전트 강화 학습 알고리즘을 구현하는 오픈소스 Python 프레임워크입니다.
    0
    0
    MultiAgent-ReinforcementLearning란?
    이 저장소는 MADDPG, DDPG, PPO 등을 비롯한 완전한 다중 에이전트 강화 학습 알고리즘 세트를 표준 벤치마크인 Multi-Agent Particle Environment와 OpenAI Gym과 통합하여 제공합니다. 사용자 맞춤형 환경 래퍼, 구성 가능한 훈련 스크립트, 실시간 로깅 및 성능 평가 지표를 특징으로 하며, 사용자는 알고리즘 확장, 맞춤 작업에 적응시키기 쉽고, 최소한의 설정으로 협력 및 경쟁 환경 간 정책을 비교할 수 있습니다.
  • AI 에이전트의 훈련 및 벤치마킹을 위한 다양한 멀티에이전트 강화학습 환경을 제공하는 오픈소스 파이썬 프레임워크입니다.
    0
    0
    multiagent_envs란?
    multiagent_envs는 멀티에이전트 강화학습 연구 및 개발을 위해 맞춤형 모듈형 파이썬 기반 환경 세트를 제공하며, 협력 네비게이션, 포식자-피해자, 사회적 딜레마, 경쟁 무대 등의 시나리오를 포함합니다. 각 환경은 에이전트 수, 관찰 특징, 보상 함수, 충돌 역학을 정의할 수 있습니다. 이 프레임워크는 Stable Baselines, RLlib과 같은 인기 RL 라이브러리와 원활하게 통합되어 벡터화 학습 루프, 병렬 실행, 간편한 로깅을 지원합니다. 사용자들은 간단한 API를 따라 기존 시나리오를 확장하거나 새로 만들어 MADDPG, QMIX, PPO와 같은 알고리즘을 일관되고 재현 가능한 환경에서 실험할 수 있습니다.
  • 확장 가능한 MADDPG는 다중 에이전트에 대한 딥 결정적 정책 그래디언트를 구현하는 오픈소스 다중 에이전트 강화 학습 프레임워크입니다.
    0
    0
    Scalable MADDPG란?
    확장 가능한 MADDPG는 연구 중심의 다중 에이전트 강화 학습 프레임워크로, MADDPG 알고리즘의 확장 가능한 구현을 제공하며, 훈련 중 중앙 집중식 크리틱과 실행 시 독립적 액터를 특징으로 하여 안정성과 효율성을 도모합니다. 이 라이브러리에는 사용자 정의 환경 정의, 네트워크 아키텍처 구성, 하이퍼파라미터 조정용 파이썬 스크립트가 포함되어 있으며, 사용자들은 병렬로 여러 에이전트를 훈련하고, 지표를 모니터링하며, 학습 곡선을 시각화할 수 있습니다. 또한 OpenAI Gym과 유사한 환경과 GPU 가속(TensorFlow 지원)을 지원하며, 모듈형 구성요소를 통해 협력, 경쟁 또는 혼합 다중 에이전트 과제에 대한 유연한 실험과 빠른 프로토타이핑, 벤치마킹을 가능하게 합니다.
  • 시뮬레이션에서 자율주행 협력 조정을 위한 협력형 다중 에이전트 강화학습을 구현하는 오픈소스 프레임워크입니다.
    0
    0
    AutoDRIVE Cooperative MARL란?
    AutoDRIVE Cooperative MARL은 AutoDRIVE 도시 주행 시뮬레이터와 적응 가능한 다중 에이전트 강화학습 알고리즘을 결합한 GitHub 호스팅 프레임워크입니다. 훈련 스크립트, 환경 래퍼, 평가 지표, 시각화 도구를 포함하여 협력 운전 정책을 개발 및 벤치마킹할 수 있습니다. 사용자는 에이전트 관측 공간, 보상 함수, 훈련 하이퍼파라미터를 구성할 수 있습니다. 이 저장소는 모듈식 확장을 지원하여 사용자 정의 시나리오 정의, 커리큘럼 학습, 성능 추적이 가능합니다.
  • 교통 시나리오에서 협력하는 자율주행 차량 제어를 위한 오픈소스 다중 에이전트 강화학습 프레임워크입니다.
    0
    0
    AutoDRIVE Cooperative MARL란?
    AutoDRIVE Cooperative MARL은 자율주행 임무를 위한 협력형 다중 에이전트 강화학습(MARL) 정책을 훈련시키고 배포하기 위해 설계된 오픈소스 프레임워크입니다. 교차로, 고속도로 플레토닝, 병합과 같은 교통 시나리오를 모델링 하기 위해 현실감 있는 시뮬레이터와 통합됩니다. 이 프레임워크는 중앙집중식 훈련과 분산형 실행을 구현하여 차량들이 공유된 정책을 학습하여 교통 효율성과 안전성을 극대화할 수 있도록 합니다. 사용자들은 환경 파라미터를 설정하고, 기본 MARL 알고리즘을 선택하며, 훈련 진행 상황을 시각화하고, 에이전트 협조 성과를 벤치마킹할 수 있습니다.
  • 맞춤형 시나리오, 보상 및 에이전트 간 통신을 제공하는 Gym 호환 다중 에이전트 강화 학습 환경입니다.
    0
    0
    DeepMind MAS Environment란?
    DeepMind MAS Environment는 다중 에이전트 강화 학습 작업을 구축하고 시뮬레이션할 수 있는 표준 인터페이스를 제공하는 Python 라이브러리입니다. 에이전트 수를 구성하고, 관측 및 행동 공간을 정의하며, 보상 구조를 사용자 지정할 수 있습니다. 이 프레임워크는 에이전트 간 통신 채널, 성능 로깅, 렌더링 기능을 지원합니다. 연구원은 TensorFlow 및 PyTorch와 같은 인기 있는 RL 라이브러리와 원활하게 통합하여 새 알고리즘 벤치마킹, 통신 프로토콜 테스트, 이산 및 연속 제어 도메인 분석이 가능합니다.
추천