高評分reinforcement learning工具

探索使用者最推薦的reinforcement learning工具,以高效、穩定的解決方案提升您的工作品質。

reinforcement learning

  • Open-source framework offering reinforcement learning-based cryptocurrency trading agents with backtesting, live trading integration, and performance tracking.
    0
    0
    CryptoTrader Agents 是什麼?
    CryptoTrader Agents provides a comprehensive toolkit for designing, training, and deploying AI-driven trading strategies in cryptocurrency markets. It includes a modular environment for data ingestion, feature engineering, and custom reward functions. Users can leverage preconfigured reinforcement learning algorithms or integrate their own models. The platform offers simulated backtesting on historical price data, risk management controls, and detailed metric tracking. When ready, agents can connect to live exchange APIs for automated execution. Built on Python, the framework is fully extensible, enabling users to prototype new tactics, run parameter sweeps, and monitor performance in real time.
  • 一個高效能的Python框架,提供快速、模組化的強化學習演算法,支援多環境操作。
    0
    0
    Fast Reinforcement Learning 是什麼?
    Fast Reinforcement Learning是一個專門的Python框架,旨在加速強化學習代理的開發與執行。它支援流行的算法如PPO、A2C、DDPG和SAC,並配合高吞吐量的向量環境管理。用戶可以輕鬆配置策略網絡、自定義訓練流程,並利用GPU加速進行大規模試驗。其模組化設計確保與OpenAI Gym環境的無縫整合,使研究人員和實務工作者能在控制、遊戲和模擬任務中原型設計、基準測試與部署代理。
  • DeepSeek R1 是一個專精於推理、數學及編碼的先進開源 AI 模型。
    0
    0
    Deepseek R1 是什麼?
    DeepSeek R1 代表了人工智慧的一項重大突破,在推理、數學和編碼任务中提供頂尖的性能。它利用擁有 37B 激活參數和 671B 總參數的複雜 MoE(Mixture of Experts)架構,實施先進的強化學習技術,以達到最先進的基準。該模型提供強大的性能,包括在 MATH-500 中達到 97.3% 的準確率和 Codeforces 中的 96.3% 百分位排名。其開源特性及具成本效益的部署選項,使其可用於各種應用。
  • 基於Python的RL框架,實現深度Q-learning,用於訓練AI代理玩Chrome的離線恐龍遊戲。
    0
    0
    Dino Reinforcement Learning 是什麼?
    Dino Reinforcement Learning提供一整套工具,用於訓練AI代理通過強化學習遊玩Chrome恐龍遊戲。通過與Selenium的無頭Chrome實例集成,它捕捉實時遊戲畫面並將其處理為優化深度Q網路輸入的狀態表示。該框架包括重播記憶體、epsilon-greedy探索、卷積神經網路模型以及可定制超參數的訓練循環。用戶可以通過控制台日誌監控訓練進展,並保存檢查點以供後續評估。訓練完成後,代理可以自動自主應用或與不同模型架構進行基準測試。模組化設計使得更換RL算法變得簡單,是一個彈性良好的實驗平台。
  • 基於TensorFlow的開源Deep Q-Network代理,利用經驗回放和目標網路學習玩Atari Breakout。
    0
    0
    DQN-Deep-Q-Network-Atari-Breakout-TensorFlow 是什麼?
    DQN-深度Q網絡-Atari-Breakout-TensorFlow提供了專為Atari Breakout環境定制的完整DQN算法實現。它采用卷積神經網絡來逼近Q值,使用經驗回放打破序列觀察之間的相關性,並採用定期更新的目標網路來穩定訓練。代理遵循epsilon-greedy策略進行探索,並可以從原始像素輸入從零開始訓練。存儲庫包括配置文件、用於監控獎勵增長的訓練腳本、測試訓練模型的評估腳本,以及TensorBoard工具用於可視化訓練指標。用戶可以調整超參數(如學習率、回放緩衝器大小和批次大小)來實驗不同設定。
  • 用於多智能體系統的開源PyTorch框架,以學習和分析合作強化學習任務中的新興通訊協議。
    0
    0
    Emergent Communication in Agents 是什麼?
    智能體中的新興通訊是一個開源的PyTorch框架,專為探索多智能體系統如何發展自己的通訊協議的研究人員設計。該資料庫提供靈活的合作強化學習任務實現,包括參照游戲、組合彩游戲和對象識別挑戰。用戶定義說話者和聽者的架構,指定訊息通道的屬性(如詞匯大小和序列長度),並選擇訓練策略(如策略梯度或監督學習)。框架包括端到端的腳本用於執行實驗、分析通訊效率和可視化新興語言。其模組化設計允許輕鬆擴展新的游戲環境或自定義損失函數。研究人員可以復現已發表的研究、基準測試新算法,並探究新興智能體語言的組合性和語意。
  • Gym-Recsys 提供可自訂的 OpenAI Gym 環境,用於擴展性訓練與評估強化學習推薦代理人
    0
    0
    Gym-Recsys 是什麼?
    Gym-Recsys 是一個工具箱,將推薦任務封裝成 OpenAI Gym 環境,使強化學習演算法能逐步與模擬的用戶-項目矩陣互動。它提供合成用戶行為產生器、支援載入流行資料集,並提供如 Precision@K 和 NDCG 等標準推薦評測指標。用戶可以自訂獎勵函數、用戶模型和項目池,用以實驗不同的 RL 基礎推薦策略,並具有可重現性。
  • FlowRL AI 使使用增強學習來實現實時的基於指標的用戶界面個性化。
    0
    0
    flowRL 是什麼?
    FlowRL AI 是一個強大的平臺,利用增強學習提供實時的用戶界面個性化。通過根據個別用戶的需求和偏好量身定制用戶界面,FlowRL 驅動關鍵商業指標的顯著改善。該平臺旨在根據實時數據動態調整用戶界面元素,使企業能夠提供高度個性化的用戶體驗,增加參與度和轉換率。
  • 一個與OpenAI Gym相容的可自訂格子世界環境合集,用於強化學習演算法的開發與測試。
    0
    0
    GridWorldEnvs 是什麼?
    GridWorldEnvs提供一個完整的格子世界環境套件,支援設計、測試與Benchmark多智能體系統。用戶可輕鬆配置格子尺寸、代理起始位置、目標位置、障礙物、獎勵結構與動作空間。內建範例模版包括經典格子導航、避障與合作任務,也允許用JSON或Python類別定義自訂場景。與OpenAI Gym API無縫整合,支援直接應用標準RL演算法。同時支援單一與多智能體實驗、記錄與視覺化工具,用於跟蹤代理績效。
  • gym-fx 提供一個可自訂的 OpenAI Gym 環境,用於訓練和評估強化學習代理,以進行外匯交易策略。
    0
    0
    gym-fx 是什麼?
    gym-fx 是一個開源的 Python 函式庫,利用 OpenAI Gym 介面實作模擬外匯交易環境。它支援多貨幣對,整合歷史價格資料、技術指標,並提供完全可自訂的獎勵函數。藉由提供一個標準化的 API,gym-fx 簡化了為演算法交易進行基準測試和發展的流程。用戶可以配置市場滑點、交易成本以及觀察空間,以逼真模擬實盤交易情況,促進策略的開發與評估。
  • gym-llm 提供類似 gym 的環境,供基準測試和訓練大型語言模型(LLM)代理,適用於對話式與決策任務。
    0
    0
    gym-llm 是什麼?
    gym-llm 擴展了 OpenAI Gym 生態系統,定義文本環境,讓 LLM 代理透過提示與動作互動。每個環境遵循 Gym 的步驟、重置與渲染慣例,輸出文本觀察並接受模型產生的回應作為動作。開發者可指定提示範例、獎勵計算與終止條件,打造複雜的決策與對話基準。整合流行的 RL 函式庫、日誌工具與可配置的評估指標,促進端到端的實驗。不論是評估 LLM 解謎、管理對話或導航結構化任務,gym-llm 提供標準化、可複現的研究與進階語言代理開發框架。
  • 一個基於Python的OpenAI Gym環境,提供可自定義的多房間網格世界,用於強化學習代理的導航和探索研究。
    0
    0
    gym-multigrid 是什麼?
    gym-multigrid提供一套可定製的網格世界環境,旨在用於強化學習中的多房間導航和探索任務。每個環境由相互連接的房間組成,內有物體、鑰匙、門和障礙物。用戶可以程式設計調整網格大小、房間配置和物體佈局。該庫支持全觀測或部分觀測模式,提供RGB或矩陣狀態表示。行動包括移動、物體交互和門的操作。將其作為Gym環境整合後,研究人員可以利用任何兼容Gym的代理,無縫訓練和評估用於鑰匙門拼圖、物體檢索和層次規劃等任務的演算法。gym-multigrid的模組化設計與最小依賴,使其成為新AI策略基準測試的理想選擇。
  • HFO_DQN是一個強化學習框架,應用Deep Q-Network來訓練RoboCup半場進攻環境中的足球代理人。
    0
    0
    HFO_DQN 是什麼?
    HFO_DQN結合了Python和TensorFlow,提供用於訓練使用Deep Q-Network足球代理人的完整流程。用戶可以克隆存儲庫、安裝依賴項(包括HFO模擬器和Python庫),並在YAML文件中配置訓練參數。該框架實現了經驗重放、目標網路更新、ε-貪婪探索和針對半場進攻領域的獎勵塑造。它包含訓練代理人、性能記錄、評估比賽和結果繪圖的腳本。模塊化結構允許集成自定義神經網絡架構、替代強化學習算法和多智能體協調策略。輸出包括訓練模型、性能指標和行為視覺化,促進強化學習和多智能體系統研究。
  • Jason-RL為Jason BDI代理器配備強化學習,透過獎勵經驗實現基於Q-learning和SARSA的自適應決策。
    0
    0
    jason-RL 是什麼?
    Jason-RL在Jason多代理框架中加入一層強化學習,使AgentSpeak BDI代理器可以通過獎勵反饋學習行動選擇策略。它實現了Q-learning和SARSA算法,支援配置學習參數(學習率、折扣因子、探索策略)並記錄訓練指標。通過在代理計劃中定義獎勵函數和運行模擬,開發者可以觀察代理隨時間改善決策,並適應變化的環境,而不需要手動編碼策略。
  • MARFT是一個開源的多代理強化學習(RL)微調工具包,用於協作AI工作流程和語言模型優化。
    0
    0
    MARFT 是什麼?
    MARFT是一個基於Python的LLM,支持可重複實驗和快速原型設計協作式AI系統。
  • 一個開源的受Minecraft啟發的強化學習平台,讓AI代理在可定製的3D沙盒環境中學習複雜任務。
    0
    0
    MineLand 是什麼?
    MineLand提供一個受到Minecraft啟發的彈性3D沙盒環境,用於訓練強化學習代理。它具有Gym相容的API,可與Stable Baselines、RLlib及自訂實作的RL庫無縫整合。用戶可存取資源收集、導航及建設挑戰等任務庫,每個任務皆可自訂難度與獎勵結構。即時渲染、多代理情境及無界面模式支援可擴展的訓練與基準測試。開發者可設計新地圖、定義自訂獎勵函數,以及加入感測器或控制元件。MineLand的開源程式碼促進重現研究、協作開發與在複雜虛擬世界中快速原型設計AI代理。
  • 精簡版PyTorch實現AlphaStar,實現星海爭霸II的強化學習代理,自訂模組化網絡架構與自我對弈。
    0
    0
    mini-AlphaStar 是什麼?
    mini-AlphaStar透過提供一個易於存取的開源PyTorch框架,幫助解開複雜的AlphaStar架構。內含空間特徵編碼器用於螢幕和縮圖輸入,非空間特徵處理,LSTM記憶模組,以及用於動作選擇與狀態評估的獨立策略與價值網絡。利用模仿學習啟動,並透過自我對弈的強化學習進行微調,支援與pysc2相容的環境封裝器,TensorBoard日誌與可配置超參數。研究人員與學生能從人類遊戲中建立資料集,根據自訂情境訓練模型,評估代理表現,並可視化學習曲線。模組化的程式碼庫方便實驗不同網絡變體、訓練流程和多代理設定。設計用於教學與快速原型,不用於正式部署。
  • 一個基於Unity ML-Agents的多機器人合作檢查任務訓練環境,可在可定制的3D虛擬場景中進行。
    0
    0
    Multi-Agent Inspection Simulation 是什麼?
    多機器人檢查模擬提供一個完整框架,用於模擬並訓練多個自主代理,以在Unity 3D環境中協作完成檢查任務。它與Unity ML-Agents工具箱整合,提供可配置的場景、檢查目標、可調整的獎勵函數與代理行為參數。研究人員可以撰寫自定義環境,定義代理數量,並透過Python API設置訓練流程。此套件支援並行訓練、TensorBoard記錄,並支援包括射線投射、攝像頭影像及位置資料的觀察輸入。調整超參數與環境復雜度後,使用者可以在覆蓋範圍、效率及協調性等指標上基準測試強化學習演算法。開源碼促進擴充用於機器人原型、協作AI研究及多機器人系統的教育示範。
  • 用於訓練AI代理進行合作監控和檢測入侵者的開源Python環境,適用於基於網格的場景。
    0
    0
    Multi-Agent Surveillance 是什麼?
    Multi-Agent Surveillance提供一個靈活的模擬框架,允許多個AI代理在離散網格世界中扮演捕食者或逃脫者角色。用戶可以配置環境參數,如網格尺寸、代理數量、檢測半徑和獎勵結構。該庫包含用於代理行為的Python類別、場景生成腳本、內建的matplotlib可視化工具,並與流行的強化學習庫無縫整合。使得基準多代理協調、開發定制監控策略和進行可重複性實驗變得容易。
  • 一個開源的Python模擬環境,用於訓練合作性無人機群控制,採用多智能體強化學習。
    0
    0
    Multi-Agent Drone Environment 是什麼?
    多智能體無人機環境是基於OpenAI Gym與PyBullet建立的Python套件,提供可自訂的多智能體模擬。用戶可以定義多個具有運動與動力模型的無人機代理,探索隊形飛行、目標追蹤與障礙避讓等合作任務。此環境支持模組化任務配置、逼真碰撞偵測與感測器模擬,同時允許自定義獎勵與去中心化策略。開發者可整合自家強化學習演算法,評估在不同場景下的效能,並即時視覺化代理軌跡與度量。其開源設計鼓勵社群貢獻,適合用於研究、教學及高階多智能體控制原型開發。
精選