초보자 친화적 обучение с подкреплением 도구

간단한 설정과 쉬운 사용법을 제공하는 обучение с подкреплением 도구로 시작부터 성공적인 작업을 만드세요.

обучение с подкреплением

  • Gym-Recsys는 확장 가능한 강화 학습 추천 에이전트의 학습 및 평가를 위한 맞춤형 OpenAI Gym 환경을 제공합니다.
    0
    0
    Gym-Recsys란?
    Gym-Recsys는 추천 작업을 OpenAI Gym 환경으로 래핑하는 도구 모음으로, 강화 학습 알고리즘이 시뮬레이션된 사용자-항목 행렬과 단계별로 상호작용할 수 있도록 합니다. 합성 사용자 행동 생성기, 인기 데이터셋 로드 기능, Precision@K 및 NDCG와 같은 표준 추천 지표를 제공합니다. 사용자들은 보상 함수, 사용자 모델, 아이템 풀을 맞춤형으로 설정하여 재현 가능한 방식으로 다양한 RL 기반 추천 전략을 실험할 수 있습니다.
  • FlowRL AI는 강화 학습을 사용하여 실시간 메트릭 기반 UI 개인화를 가능하게 합니다.
    0
    0
    flowRL란?
    FlowRL AI는 강화 학습을 활용하여 실시간 UI 개인화를 제공하는 강력한 플랫폼입니다. 개별 사용자의 요구와 선호에 맞춰 사용자 인터페이스를 조정함으로써 FlowRL은 주요 비즈니스 지표의 상당한 개선을 이끌어냅니다. 이 플랫폼은 라이브 데이터에 기반해 UI 요소를 동적으로 조정하도록 설계되어 있어 기업이 참여도와 전환율을 높이는 고도로 개인화된 사용자 경험을 제공할 수 있게 합니다.
  • OpenAI Gym과 호환되는 맞춤형 그리드 월드 환경 모음으로 강화 학습 알고리즘 개발 및 테스트를 지원합니다.
    0
    0
    GridWorldEnvs란?
    GridWorldEnvs는 강화학습 및 다중 에이전트 시스템의 설계, 테스트, 벤치마킹을 지원하는 포괄적인 그리드 월드 환경 스위트를 제공합니다. 사용자는 그리드 크기, 에이전트 시작 위치, 목표 위치, 장애물, 보상 구조, 행동 공간을 쉽게 구성할 수 있습니다. 이 라이브러리에는 고전적인 그리드 내비게이션, 장애물 회피, 협력 작업과 같은 미리 만들어진 템플릿이 포함되어 있으며, JSON 또는 Python 클래스를 통해 사용자 정의 시나리오를 정의할 수도 있습니다. OpenAI Gym API와의 원활한 통합으로 표준 RL 알고리즘을 바로 적용할 수 있습니다. 또한, GridWorldEnvs는 단일 또는 다중 에이전트 실험, 로깅, 시각화 유틸리티를 지원하여 에이전트 성능을 추적할 수 있습니다。
  • gym-fx는 외환 거래 전략을 위한 강화 학습 에이전트를 훈련하고 평가할 수 있는 맞춤형 OpenAI Gym 환경을 제공합니다.
    0
    0
    gym-fx란?
    gym-fx는 OpenAI Gym 인터페이스를 사용하는 시뮬레이션된 외환 거래 환경을 구현하는 오픈소스 Python 라이브러리입니다. 다수의 통화 쌍 지원, 과거 가격 피드 통합, 기술 지표, 그리고 완전히 맞춤형 보상 함수를 제공합니다. 표준화된 API를 통해, gym-fx는 알고리즘 거래용 강화 학습 알고리즘 벤치마킹 및 개발 프로세스를 간소화합니다. 사용자는 시장 슬리피지, 거래 비용, 관찰 공간을 조정하여 실시간 거래 시나리오와 유사하게 만들어, 전략 개발과 평가를 견고하게 지원합니다.
  • gym-llm은 대화 및 의사결정 작업에 대한 벤치마크 및 LLM 에이전트 훈련을 위한 Gym 스타일 환경을 제공합니다.
    0
    0
    gym-llm란?
    gym-llm은 텍스트 기반 환경을 정의하여 LLM 에이전트가 프롬프트와 행동을 통해 상호작용할 수 있도록 하여 OpenAI Gym 생태계를 확장합니다. 각 환경은 Gym의 step, reset, render 규약을 따르며, 관측값은 텍스트로 출력되고, 모델이 생성한 응답은 행동으로 수용됩니다. 개발자는 프롬프트 템플릿, 보상 계산, 종료 조건을 지정하여 정교한 의사결정 및 대화 벤치마크를 제작할 수 있습니다. 인기 RL 라이브러리, 로깅 도구, 평가 지표와의 통합으로 끝에서 끝까지 실험이 용이합니다. 퍼즐 해결, 대화 관리, 구조화된 작업 탐색 등 LLM의 능력을 평가하기 위한 표준화되고 재현 가능한 프레임워크를 제공합니다.
  • 강화학습 에이전트의 네비게이션과 탐험 연구를 위한 사용자 정의 가능한 다중룸 그리드월드 환경을 제공하는 Python 기반 OpenAI Gym 환경입니다.
    0
    0
    gym-multigrid란?
    gym-multigrid는 강화학습에서 다중룸 탐색과 탐사를 위해 설계된 맞춤형 그리드월드 환경 모음을 제공합니다. 각 환경은 객체, 키, 문의 장애물로 구성된 연결된 방들로 이루어져 있으며, 사용자는 그리드 크기, 방 구성, 객체 배치를 프로그래밍 방식으로 조정할 수 있습니다. 이 라이브러리는 전체 또는 부분 관측 모드를 지원하며, RGB 또는 행렬 상태 표현을 제공합니다. 동작에는 이동, 객체 상호작용, 문의 조작이 포함됩니다. 이를 Gym 환경으로 통합하여 연구자는 어떤 Gym 호환 에이전트든 활용하여 키-문 퍼즐, 객체 회수, 계층적 계획과 같은 작업에서 알고리즘을 원활하게 학습하고 평가할 수 있습니다. gym-multigrid의 모듈형 설계와 최소한의 의존성으로 인해 새로운 AI 전략 벤치마킹에 이상적입니다.
  • HFO_DQN은 Deep Q-Network을 적용하여 RoboCup Half Field Offense 환경에서 축구 에이전트를 훈련하는 강화 학습 프레임워크입니다.
    0
    0
    HFO_DQN란?
    HFO_DQN은 Python과 TensorFlow를 결합하여 Deep Q-Network을 사용하는 축구 에이전트 훈련을 위한 완전한 파이프라인을 제공합니다. 사용자는 저장소를 복제(clone)하고, HFO 시뮬레이터와 Python 라이브러리 포함 의존성을 설치하며, YAML 파일에서 훈련 매개변수를 구성할 수 있습니다. 이 프레임워크는 경험 재생, 타깃 네트워크 업데이트, 이플슨 탐색(epsilon-greedy), 그리고 하프 필드 오펜스 도메인에 특화된 보상 조정을 구현합니다. 에이전트 훈련, 성능 로깅, 평가 경기, 결과 플로팅을 위한 스크립트를 포함하며, 모듈형 코드 설계는 커스텀 신경망 아키텍처, 대체 RL 알고리즘, 다중 에이전트 협력 전략의 통합을 허용합니다. 출력에는 훈련된 모델, 성능 지표, 행동 시각화가 포함되어 있으며, 강화학습 및 다중 에이전트 시스템 분야 연구를 지원합니다.
  • Jason-RL은 Jason BDI 에이전트에 강화학습을 장착하여 보상 경험을 통해 Q-학습과 SARSA 기반의 적응적 의사결정을 가능하게 합니다.
    0
    0
    jason-RL란?
    jason-RL은 Jason 멀티 에이전트 프레임워크에 강화학습 계층을 추가하여, AgentSpeak BDI 에이전트가 보상 피드백을 통해 행동 선택 정책을 학습할 수 있게 합니다. Q-학습과 SARSA 알고리즘을 구현하며, 학습 매개변수(학습률, 할인 인자, 탐색 전략) 설정 지원과 학습 지표 로그 기록이 가능합니다. 에이전트 계획 내에 보상 함수를 정의하고 시뮬레이션을 수행함으로써, 개발자는 시간이 지남에 따라 에이전트의 의사결정이 향상되고 환경 변화에 적응하는 모습을 관찰할 수 있습니다.
  • MARFT는 협력 AI 워크플로우와 언어 모델 최적화를 위한 오픈 소스 다중 에이전트 RL 파인튜닝 툴킷입니다.
    0
    0
    MARFT란?
    MARFT는 재현 가능한 실험과 협력 AI 시스템의 빠른 프로토타이핑을 가능하게 하는 Python 기반의 LLM입니다.
  • 맞춤형 3D 샌드박스 환경에서 AI 에이전트가 복잡한 작업을 학습할 수 있는 오픈소스 Minecraft 기반 RL 플랫폼입니다.
    0
    0
    MineLand란?
    MineLand는 Minecraft에서 영감을 받은 유연한 3D 샌드박스 환경을 제공하며, 기존 RL 라이브러리와 원활하게 통합 가능한 Gym 호환 API를 갖추고 있습니다. 자원 수집, 내비게이션, 건설 도전 과제 등 다양한 작업 라이브러리와 각 작업의 난이도 및 보상 구조를 구성할 수 있습니다. 실시간 렌더링, 다중 에이전트 시나리오, 헤드리스 모드를 통해 확장 가능한 학습과 벤치마킹이 가능합니다. 개발자는 새로운 맵을 설계하고, 맞춤 보상 함수를 정의하며, 추가 센서 또는 컨트롤을 플러그인할 수 있습니다. MineLand의 오픈소스 코드는 재현 가능한 연구, 협업 개발, 복잡한 가상 월드에서의 AI 에이전트 신속 프로토타이핑을 촉진합니다.
  • 모듈식 네트워크 구조와 셀프 플레이를 통한 스타크래프트 II RL 에이전트 훈련이 가능한 AlphaStar의 간소화된 PyTorch 구현.
    0
    0
    mini-AlphaStar란?
    mini-AlphaStar는 복잡한 AlphaStar 아키텍처를 해독하여 스타크래프트 II AI 개발을 위한 접근 가능하고 오픈소스인 PyTorch 프레임워크를 제공합니다. 화면 및 미니맵 입력을 위한 공간 특징 인코더, 비공간 특징 처리, LSTM 메모리 모듈, 행동 선택과 상태 평가를 위한 별도 정책 및 가치 네트워크를 갖추고 있습니다. 모방 학습으로 부트스트래핑하고, 셀프 플레이를 통한 강화 학습으로 미세 조정하며, pysc2를 통한 StarCraft II 환경 래퍼, 텐서보드 로깅 및 사용자 설정 가능한 하이퍼파라미터를 지원합니다. 연구원과 학생들은 인간 플레이 데이터셋을 생성하고, 사용자 정의 시나리오에서 모델을 훈련하며, 에이전트 성능을 평가하고 학습 곡선을 시각화할 수 있습니다. 모듈식 코드베이스는 네트워크 변형, 훈련 일정 및 다중 에이전트 설정을 쉽게 실험할 수 있게 합니다. 교육과 프로토타이핑에 초점을 맞췄으며, 배포용으로는 적합하지 않습니다.
  • 맞춤형 3D 가상 시나리오에서 협력 다중 에이전트 검사 작업을 훈련하는 Unity ML-Agents 기반 환경입니다.
    0
    0
    Multi-Agent Inspection Simulation란?
    멀티 에이전트 검사 시뮬레이션은 Unity 3D 환경 내에서 여러 자율 에이전트가 협력하여 검사 작업을 수행할 수 있도록 하는 포괄적 프레임워크를 제공합니다. 이 환경은 검사 대상, 조절 가능한 보상 함수, 에이전트 행동 매개변수와 함께 Unity ML-Agents와 통합됩니다. 연구자는 Python API를 통해 맞춤 환경 스크립트 작성, 에이전트 수 정의, 훈련 커리큘럼 설정이 가능하며, 병렬 훈련 세션, TensorBoard 로그 기록, 레이캐스트, 카메라 피드, 위치 데이터 등 맞춤 관측 기능도 지원합니다. 하이퍼파라미터와 환경 복잡도를 조절하여 커버리지, 효율성, 협력 지표에 대한 강화 학습 알고리즘의 벤치마킹도 가능합니다. 오픈소스 코드는 로봇 프로토타이핑, 협력 AI 연구, 다중 에이전트 시스템의 교육용 데모 확장에 적합합니다.
  • 격자 기반 시나리오에서 AI 에이전트를 협력적으로 훈련시키기 위한 오픈소스 Python 환경입니다.
    0
    0
    Multi-Agent Surveillance란?
    멀티 에이전트 감시는 연습형 격자 세계에서 포식자 또는 도주자로 행동하는 여러 AI 에이전트들의 유연한 시뮬레이션 프레임워크를 제공합니다. 사용자들은 격자 크기, 에이전트 수, 탐지 반경, 보상 구조 등의 환경 매개변수를 구성할 수 있습니다. 저장소에는 에이전트 행동을 위한 Python 클래스, 시나리오 생성 스크립트, matplotlib을 통한 내장 시각화, 인기 있는 강화학습 라이브러리와의 원활한 통합이 포함되어 있으며, 이를 통해 다중 에이전트 협력의 벤치마크 설정, 맞춤 감시 전략 개발, 재현 가능 실험 수행이 용이합니다.
  • 협력 드론 군집 제어를 위한 오픈소스 Python 시뮬레이션 환경입니다.
    0
    0
    Multi-Agent Drone Environment란?
    멀티에이전트 드론 환경은 OpenAI Gym과 PyBullet 기반으로 구성된 UAV 군집 시뮬레이션용 커스터마이징 가능한 Python 패키지입니다. 사용자는 운동학 및 동역학 모델을 갖춘 다수의 드론 에이전트를 정의하여 포메이션 비행, 타겟 추적, 장애물 회피 등의 협력 작업을 탐색합니다. 환경은 모듈식 작업 구성, 현실적인 충돌 감지, 센서 에뮬레이션을 지원하며, 커스텀 보상 함수와 분산 정책도 구현 가능합니다. 개발자는 자체 강화학습 알고리즘을 통합하고 여러 시나리오에서 성능을 평가하며, 에이전트의 궤적과 지표를 실시간으로 시각화할 수 있습니다. 오픈소스 설계는 커뮤니티 기여를 장려하여 연구, 교육, 고급 다중 에이전트 제어 솔루션의 프로토타이핑에 이상적입니다.
  • 강화 학습을 사용하여 여러 자율 폐기물 수집 에이전트의 협력을 조정하여 수집 경로를 효율적으로 최적화합니다.
    0
    0
    Multi-Agent Autonomous Waste Collection System란?
    다중 에이전트 자율 폐기물 수집 시스템은 경로 계획에 협력하도록 개별 폐기물 로봇을 훈련시키는 연구 기반 플랫폼입니다. 에이전트는 중복 커버리지를 피하고, 이동 거리를 최소화하며, 동적 폐기물 생성 패턴에 대응하는 방법을 학습합니다. Python으로 구축되었으며, 정책을 테스트하고 개선하기 위한 시뮬레이션 환경을 통합합니다. 사용자들은 도시 지도, 폐기물 하차 지점, 에이전트 센서, 보상 구조를 구성하여 특정 도시 지역 또는 운영 제약 조건에 맞게 행동을 조정할 수 있습니다.
  • 딥러닝과 강화 결정을 사용하는 협력 객체 추적을 위한 오픈소스 다중 에이전트 AI 프레임워크입니다.
    0
    0
    Multi-Agent Visual Tracking란?
    멀티에이전트 비ual 추적은 영상 객체 추적의 정확성과 견고성을 높이기 위해 통신하는 지능형 에이전트로 구성된 분산 추적 시스템을 구현합니다. 에이전트는 합성곱 신경망을 통해 감지를 수행하고, 가림을 처리하기 위해 관측을 공유하며, 강화 학습을 통해 추적 매개변수를 조정합니다. 인기 있는 영상 데이터셋과 호환되며, 훈련과 실시간 추론 모두를 지원합니다. 사용자는 기존 파이프라인에 쉽게 통합하고, 맞춤형 응용을 위해 에이전트 행동을 확장할 수 있습니다.
  • PySC2를 통한 StarCraft II에서 원시 수준의 에이전트 제어와 협력을 가능하게 하는 오픈 소스 다중 에이전트 강화학습 프레임워크.
    0
    0
    MultiAgent-Systems-StarCraft2-PySC2-Raw란?
    MultiAgent-Systems-StarCraft2-PySC2-Raw는 StarCraft II에서 다중 AI 에이전트 개발, 훈련 및 평가를 위한 완전한 툴킷을 제공합니다. 유닛 이동, 대상 지정, 능력에 대한 저수준 제어를 제공하며, 유연한 보상 설계와 시나리오 구성이 가능합니다. 사용자는 맞춤형 신경망 아키텍처를 쉽게 연결하고, 팀 기반 협력 전략을 정의하며, 지표를 기록할 수 있습니다. PySC2를 기반으로 병렬 훈련, 체크포인트 및 시각화를 지원하여 협력과 경쟁 다중 에이전트 강화학습 연구에 이상적입니다.
  • 협력적이고 경쟁적인 AI 에이전트 환경 개발 및 시뮬레이션을 위한 Python 기반 다중 에이전트 강화 학습 프레임워크입니다.
    0
    0
    Multiagent_system란?
    Multiagent_system은 다중 에이전트 환경을 구축하고 관리하기 위한 종합 도구 키트를 제공합니다. 사용자는 맞춤형 시뮬레이션 시나리오를 정의하고, 에이전트 행동을 지정하며, DQN, PPO, MADDPG와 같은 사전 구현된 알고리즘을 활용할 수 있습니다. 이 프레임워크는 동기식 및 비동기식 훈련을 지원하여 에이전트가 병행 또는 차례로 상호작용할 수 있게 합니다. 내장된 통신 모듈은 협력 전략을 위한 메시지 전달을 용이하게 하며, YAML 파일로 실험 구성을 간소화하며, 결과는 CSV 또는 TensorBoard에 자동 기록됩니다. 시각화 스크립트는 에이전트 궤적, 보상 변화, 통신 패턴의 해석을 돕습니다. 연구와 프로덕션 워크플로우를 위해 설계된 Multiagent_system은 싱글 머신 프로토타입부터 GPU 클러스터의 분산 훈련까지 원활하게 확장됩니다.
  • 사용자 정의 환경에서 동시 다중 에이전트 협력, 경쟁 및 훈련을 가능하게 하는 Python 기반 멀티 에이전트 시뮬레이션 프레임워크입니다.
    0
    0
    MultiAgentes란?
    MultiAgentes는 환경과 에이전트 정의를 위한 모듈식 아키텍처를 제공하며, 동기 및 비동기 멀티 에이전트 상호 작용을 지원합니다. 환경과 에이전트용 기본 클래스, 협력 및 경쟁 작업용 사전 정의된 시나리오, 보상 함수 사용자 지정 도구, 에이전트 간 메시징 및 관찰 공유를 위한 API를 포함합니다. 시각화 유틸리티는 에이전트 행동을 실시간으로 모니터링할 수 있으며, 로깅 모듈은 성능 메트릭을 기록하여 분석합니다. 이 프레임워크는 Gym 호환 강화 학습 라이브러리와 원활하게 통합되어 기존 알고리즘을 사용한 에이전트 훈련이 가능합니다. 확장성을 고려하여 개발자가 새로운 환경 템플릿, 에이전트 유형 및 통신 프로토콜을 추가할 수 있으며, 다양한 연구 및 교육 용도에 적합합니다.
  • 클래식 팩맨 게임 환경에서 다중 에이전트 AI 전략의 구현 및 평가를 가능하게 하는 오픈소스 프레임워크.
    0
    0
    MultiAgentPacman란?
    MultiAgentPacman은 사용자들이 팩맨 도메인에서 여러 AI 에이전트를 구현, 시각화, 벤치마크할 수 있는 Python 기반의 게임 환경을 제공합니다. minimax, expectimax, alpha-beta 가지치기와 같은 적대적 탐색 알고리즘 및 맞춤형 강화 학습 또는 휴리스틱 기반 에이전트도 지원합니다. 이 프레임워크는 간단한 GUI, 명령줄 제어, 게임 통계 기록 및 경쟁 또는 협력 시나리오에서 에이전트 성능 비교 유틸리티를 포함합니다.
추천