Die besten 사용자 정의 보상 함수-Lösungen für Sie

Finden Sie bewährte 사용자 정의 보상 함수-Tools, die sowohl für Anfänger als auch für Experten geeignet sind, und steigern Sie Ihre Produktivität.

사용자 정의 보상 함수

  • gym-fx bietet eine anpassbare OpenAI Gym-Umgebung zur Schulung und Bewertung von Verstärkungslernagenten für Forex-Handelsstrategien.
    0
    0
    Was ist gym-fx?
    gym-fx ist eine Open-Source-Python-Bibliothek, die eine simulierte Forex-Handelsumgebung mit der OpenAI Gym-Schnittstelle implementiert. Sie bietet Unterstützung für mehrere Währungspaare, die Integration historischer Kursdaten, technische Indikatoren und vollständig anpassbare Belohnungsfunktionen. Durch eine standardisierte API vereinfacht gym-fx das Benchmarking und die Entwicklung von Reinforcement-Learning-Algorithmen für den algorithmischen Handel. Nutzer können Marktschlitzung, Transaktionskosten und Beobachtungsräume konfigurieren, um realistische Handelsszenarien nachzubilden, was die Entwicklung und Bewertung robuster Strategien fördert.
  • MAPF_G2RL ist ein Python-Framework, das Deep-Reinforcement-Learning-Agenten für effizientes Multi-Agenten-Pfadfinden auf Graphen trainiert.
    0
    0
    Was ist MAPF_G2RL?
    MAPF_G2RL ist ein Open-Source-Forschungsframework, das Graphentheorie und Deep Reinforcement Learning verbindet, um das Multi-Agenten-Pfadfindungsproblem (MAPF) zu lösen. Es kodiert Knoten und Kanten in Vektor-Repräsentationen, definiert räumliche und kollisionsbewusste Belohnungsfunktionen und unterstützt verschiedene RL-Algorithmen wie DQN, PPO und A2C. Das Framework automatisiert die Szenarien-Erstellung durch die Generierung zufälliger Graphen oder den Import realer Karten und steuert Trainingsschleifen, die Politiken für mehrere Agenten gleichzeitig optimieren. Nach dem Lernen werden die Agenten in simulierten Umgebungen bewertet, um Pfadeffizienz, Make-span und Erfolgsraten zu messen. Das modulare Design ermöglicht es Forschern, Kernkomponenten zu erweitern, neue MARL-Techniken zu integrieren und mit klassischen Lösungsansätzen zu benchmarken.
  • MARFT ist ein Open-Source-Toolkit für Multi-Agenten-Reinforcement-Learning (RL) zur Feinabstimmung für kollaborative KI-Workflows und Optimierung von Sprachmodellen.
    0
    0
    Was ist MARFT?
    MARFT ist ein in Python entwickeltes LLM, das reproduzierbare Experimente und schnelle Prototypentwicklung für kollaborative KI-Systeme ermöglicht.
  • Implementiert dezentrales Multi-Agent-DDPG-Verstärkungslernen mit PyTorch und Unity ML-Agents für kollaboratives Agententraining.
    0
    0
    Was ist Multi-Agent DDPG with PyTorch & Unity ML-Agents?
    Dieses Open-Source-Projekt liefert ein vollständiges Multi-Agent-Verstärkungslernen-Framework, das auf PyTorch und Unity ML-Agents basiert. Es bietet dezentrale DDPG-Algorithmen, Umgebungs-Wrapper und Trainingsskripte. Nutzer können Agentenrichtlinien, Kritiker-Netzwerke, Replay-Puffer und parallele Trainings-Worker konfigurieren. Log-Hooks ermöglichen die Überwachung mit TensorBoard, während modulare Code-Strukturen benutzerdefinierte Belohnungsfunktionen und Umgebungsparameter unterstützen. Das Repository umfasst Beispiel-Szenen in Unity, die kollaborative Navigationsaufgaben demonstrieren, und ist damit ideal, um Multi-Agent-Szenarien in Simulationen zu erweitern und zu benchmarking.
  • RL Shooter bietet eine anpassbare Doom-basierte Verstärkendes Lernumgebung zum Trainieren von KI-Agenten, um Ziele zu navigieren und zu schießen.
    0
    0
    Was ist RL Shooter?
    RL Shooter ist ein Python-basiertes Framework, das ViZDoom mit OpenAI Gym APIs integriert, um eine flexible Verstärkendes Lernumgebung für FPS-Spiele zu schaffen. Benutzer können benutzerdefinierte Szenarien, Karten und Belohnungsstrukturen definieren, um Agenten bei Navigation, Zielerkennung und Schießaufgaben zu trainieren. Mit anpassbaren Beobachtungsrahmen, Aktionsräumen und Protokollierungseinrichtungen unterstützt es beliebte Deep-RL-Bibliotheken wie Stable Baselines und RLlib, und ermöglicht klare Leistungsmessung und Reproduzierbarkeit in den Experimenten.
  • Eine leichte Python-Bibliothek zur Erstellung anpassbarer 2D-Gitterumgebungen für das Training und Testen von Verstärkungslern-Agenten.
    0
    0
    Was ist Simple Playgrounds?
    Simple Playgrounds bietet eine modulare Plattform zum Aufbau interaktiver 2D-Gitterumgebungen, in denen Agenten Labyrinthe erkunden, mit Objekten interagieren und Aufgaben erfüllen können. Benutzer definieren Umgebungslayouts, Objektverhalten und Belohnungsfunktionen mit einfachen YAML- oder Python-Skripten. Der integrierte Pygame-Renderer liefert eine Echtzeitvisualisierung, während eine schrittabhängige API eine nahtlose Integration mit RL-Bibliotheken wie Stable Baselines3 ermöglicht. Mit Unterstützung für Multi-Agent-Setups, Kollisionsdiagnose und anpassbare physikalische Parameter vereinfacht Simple Playgrounds die Prototypenerstellung, Benchmarking und pädagogische Demonstrationen von KI-Algorithmen.
  • Gym-Recsys bietet anpassbare OpenAI Gym-Umgebungen für skalierbares Training und Bewertung von Verstärkungslern-Empfehlungsagenten
    0
    0
    Was ist Gym-Recsys?
    Gym-Recsys ist ein Werkzeugkasten, der Empfehlungaufgaben in OpenAI Gym-Umgebungen verpackt und Verstärkungslern-Algorithmen ermöglicht, Schritt für Schritt mit simulierten Benutzer-Objekt-Tabellen zu interagieren. Es bietet synthetische Benutzungsverhaltensgeneratoren, unterstützt das Laden beliebter Datensätze und liefert Standardempfehlungsmetriken wie Precision@K und NDCG. Benutzer können Belohnungsfunktionen, Benutzermodelle und Objektpools anpassen, um verschiedene RL-basierte Empfehlungstrategien reproduzierbar zu experimentieren.
Ausgewählt