이 저장소는 StarCraft II 게임 플레이 연구를 위한 엔드-투-엔드 강화학습 프레임워크를 제공합니다. 핵심 에이전트는 PySC2 환경의 관측 데이터를 해석하여 정밀한 게임 내 행동을 출력하는 정책 네트워크를 학습하기 위해 PPO를 사용합니다. 개발자는 신경망 계층, 보상 설계, 학습 일정을 구성하여 성능을 최적화할 수 있습니다. 이 시스템은 샘플 수집의 효율성을 위한 다중 프로세싱, 학습 곡선을 모니터링하는 로깅 유틸리티, 스크립트 또는 내장 AI 대전용 평가 스크립트를 지원합니다. 코드는 Python으로 작성되었으며 TensorFlow를 활용하여 모델 정의 및 최적화를 수행합니다. 사용자는 사용자 정의 보상 함수, 상태 전처리, 네트워크 아키텍처 등 구성요소를 확장할 수 있습니다.
Dino Reinforcement Learning은 강화 학습을 통해 Chrome 공룡 게임을 플레이하는 AI 에이전트 훈련을 위한 종합 도구를 제공합니다. 셀레늄을 통해 헤드리스 Chrome 인스턴스와 통합하여 실시간 게임 프레임을 캡처하고, 딥 Q 네트워크 입력에 최적화된 상태 표현으로 처리합니다. 프레임 재생, 이플실론-탐욕 탐사, 컨볼루션 신경망 모델 및 사용자 맞춤 하이퍼파라미터가 포함된 훈련 루프 모듈이 포함됩니다. 훈련 진행 상황은 콘솔 로그를 통해 확인하며 체크포인트 저장으로 나중에 평가 가능합니다. 훈련 후, 에이전트는 자율적으로 실시간 게임을 플레이하거나 다양한 모델 아키텍처와 벤치마킹할 수 있습니다. 모듈식 설계로 RL 알고리즘을 쉽게 교체할 수 있어 실험에 유연성을 제공합니다.
이 부트캠프는 LangChain 프레임워크의 전체 과정을 다루어 Python으로 AI 에이전트를 구축할 수 있도록 합니다. 프롬프트 템플릿, 체인 구성, 에이전트 툴링, 대화 메모리, 문서 검색 등을 탐구합니다. 인터랙티브 노트북과 상세한 연습을 통해 챗봇, 자동화 워크플로우, 질문답변 시스템, 맞춤형 에이전트 체인을 구현합니다. 과정이 끝나면 LangChain 기반 에이전트의 배포 및 최적화 방법을 이해하게 됩니다.