Preiswerte обучение с подкреплением-Tools für alle

Erhalten Sie erschwingliche обучение с подкреплением-Tools mit hervorragenden Funktionen. Ideal für die Erfüllung Ihrer Anforderungen.

обучение с подкреплением

  • Gym-Recsys bietet anpassbare OpenAI Gym-Umgebungen für skalierbares Training und Bewertung von Verstärkungslern-Empfehlungsagenten
    0
    0
    Was ist Gym-Recsys?
    Gym-Recsys ist ein Werkzeugkasten, der Empfehlungaufgaben in OpenAI Gym-Umgebungen verpackt und Verstärkungslern-Algorithmen ermöglicht, Schritt für Schritt mit simulierten Benutzer-Objekt-Tabellen zu interagieren. Es bietet synthetische Benutzungsverhaltensgeneratoren, unterstützt das Laden beliebter Datensätze und liefert Standardempfehlungsmetriken wie Precision@K und NDCG. Benutzer können Belohnungsfunktionen, Benutzermodelle und Objektpools anpassen, um verschiedene RL-basierte Empfehlungstrategien reproduzierbar zu experimentieren.
  • FlowRL AI ermöglicht eine Echtzeit-Personalisierung der Benutzeroberfläche auf Basis von Metriken unter Verwendung von Reinforcement Learning.
    0
    0
    Was ist flowRL?
    FlowRL AI ist eine leistungsstarke Plattform, die eine Echtzeit-Personalisierung der Benutzeroberfläche mit Reinforcement Learning bereitstellt. Durch die Anpassung der Benutzeroberfläche an die individuellen Bedürfnisse und Präferenzen der Benutzer erzielt FlowRL erhebliche Verbesserungen der wichtigen Geschäftskennzahlen. Die Plattform ist darauf ausgelegt, UI-Elemente dynamisch basierend auf Live-Daten anzupassen und ermöglicht es Unternehmen, hochgradig personalisierte Benutzererfahrungen zu bieten, die das Engagement und die Konversionsraten erhöhen.
  • Eine Sammlung anpassbarer Grid-Welt-Umgebungen, die mit OpenAI Gym kompatibel sind, für die Entwicklung und das Testen von Verstärkungslern-Algorithmen.
    0
    0
    Was ist GridWorldEnvs?
    GridWorldEnvs bietet eine umfassende Sammlung von Grid-Welt-Umgebungen, die das Design, Testen und Benchmarking von Verstärkungslern- und Mehragentensystemen unterstützen. Benutzer können leicht Gittergrößen, Startpositionen der Agenten, Zielorte, Hindernisse, Belohnungsstrukturen und Aktionsräume konfigurieren. Die Bibliothek enthält vorgefertigte Templates wie klassische Gitternavigation, Hindernisvermeidung und Kooperationsaufgaben, sowie die Möglichkeit, eigene Szenarien via JSON oder Python-Klassen zu gestalten. Die nahtlose Integration mit der OpenAI Gym-API ermöglicht die direkte Anwendung standardmäßiger RL-Algorithmen. Zudem unterstützt GridWorldEnvs einzelne sowie mehrere Agenten-Experimente, Logging und Visualisierungswerkzeuge zur Verfolgung der Agentenleistung.
  • gym-fx bietet eine anpassbare OpenAI Gym-Umgebung zur Schulung und Bewertung von Verstärkungslernagenten für Forex-Handelsstrategien.
    0
    0
    Was ist gym-fx?
    gym-fx ist eine Open-Source-Python-Bibliothek, die eine simulierte Forex-Handelsumgebung mit der OpenAI Gym-Schnittstelle implementiert. Sie bietet Unterstützung für mehrere Währungspaare, die Integration historischer Kursdaten, technische Indikatoren und vollständig anpassbare Belohnungsfunktionen. Durch eine standardisierte API vereinfacht gym-fx das Benchmarking und die Entwicklung von Reinforcement-Learning-Algorithmen für den algorithmischen Handel. Nutzer können Marktschlitzung, Transaktionskosten und Beobachtungsräume konfigurieren, um realistische Handelsszenarien nachzubilden, was die Entwicklung und Bewertung robuster Strategien fördert.
  • gym-llm bietet Gym-ähnliche Umgebungen für Benchmarking und Training von LLM-Agenten in konversationalen und Entscheidungsaufgaben.
    0
    0
    Was ist gym-llm?
    gym-llm erweitert das OpenAI Gym-Ökosystem für große Sprachmodelle, indem textbasierte Umgebungen definiert werden, bei denen LLM-Agenten durch Eingabeaufforderungen und Aktionen interagieren. Jede Umgebung folgt den Gym-Konventionen für Schritt, Zurücksetzen und Rendern, gibt Beobachtungen als Text aus und akzeptiert modellgenerierte Antworten als Aktionen. Entwickler können benutzerdefinierte Aufgaben erstellen, indem sie Vorlage-Templates, Belohnungsberechnungen und Abbruchbedingungen spezifizieren, was komplexe Entscheidungsfindung und konversationsbasierte Benchmarks ermöglicht. Die Integration mit beliebten RL-Bibliotheken, Protokollierungstools und konfigurierbaren Bewertungsmetriken erleichtert End-to-End-Experimente. Ob beim Beurteilen der Fähigkeit eines LLMs, Rätsel zu lösen, Dialoge zu verwalten oder strukturierte Aufgaben zu navigieren – gym-llm bietet einen standardisierten, reproduzierbaren Rahmen für die Forschung und Entwicklung fortschrittlicher Sprachagenten.
  • Eine Python-basierte OpenAI Gym-Umgebung, die anpassbare Mehrzimmer-Gitterwelten für Forschungszwecke der Navigations- und Erkundungsagenten im Bereich des Reinforcement Learning bietet.
    0
    0
    Was ist gym-multigrid?
    gym-multigrid stellt eine Reihe von anpassbaren Gitterwelten bereit, die für Mehrzimmer-Navigation und Erkundungsaufgaben im Reinforcement Learning entwickelt wurden. Jede Umgebung besteht aus verbundenen Räumen, die mit Objekten, Schlüsseln, Türen und Hindernissen gefüllt sind. Benutzer können die Gittergröße, Raumkonfigurationen und Objektplatzierungen programmatisch anpassen. Die Bibliothek unterstützt sowohl Voll- als auch Teilbeobachtungsmodi und bietet RGB- oder Matrizen-Zustandsdarstellungen. Aktionen umfassen Bewegung, Objekthandhabung und Türmanipulation. Durch die Integration als Gym-Umgebung können Forscher jeden Gym-kompatiblen Agent nutzen, um Algorithmen nahtlos auf Aufgaben wie Schlüssel-Tür-Puzzles, Objektsuche und hierarchische Planung zu trainieren und zu bewerten. Das modulare Design und minimale Abhängigkeiten von gym-multigrid machen es ideal für den Benchmarking neuer KI-Strategien.
  • HFO_DQN ist ein Verstärkungslernframework, das Deep Q-Network verwendet, um Fußballagenten in der RoboCup Half Field Offense-Umgebung zu trainieren.
    0
    0
    Was ist HFO_DQN?
    HFO_DQN kombiniert Python und TensorFlow, um eine vollständige Pipeline für das Training von Fußballagenten mithilfe von Deep Q-Networks bereitzustellen. Benutzer können das Repository klonen, Abhängigkeiten einschließlich des HFO-Simulators und Python-Bibliotheken installieren sowie Trainingsparameter in YAML-Dateien konfigurieren. Das Framework implementiert Erfahrungsspeicherung, Zielnetzwerk-Updates, epsilon-greedy Erkundung und Belohnungsformung, die speziell für die Half-Field-Offense-Domäne angepasst sind. Es verfügt über Skripte für das Training von Agenten, Leistungsprotokollierung, Evaluierungsspiele und Ergebnisvisualisierung. Modulare Code-Struktur ermöglicht die Integration eigener neuronaler Netzwerkarchitekturen, alternativer RL-Algorithmen und Multi-Agenten-Koordinationsstrategien. Die Ausgaben umfassen trainierte Modelle, Leistungsmetriken und Verhaltensvisualisierungen, die die Forschung im Bereich Reinforcement Learning und Multi-Agent-Systeme erleichtern.
  • Jason-RL rüstet Jason BDI-Agenten mit Reinforcement-Learning aus, was eine adaptive Entscheidungsfindung basierend auf Q-Learning und SARSA durch Belohnungserfahrung ermöglicht.
    0
    0
    Was ist jason-RL?
    Jason-RL fügt dem Jason Multi-Agenten-Framework eine Verstärkendes Lernen-Schicht hinzu, die es AgentSpeak-BDI-Agenten ermöglicht, Aktions-Auswahl-Politiken durch Belohnungsfeedback zu erlernen. Es implementiert Q-Learning und SARSA, unterstützt die Konfiguration von Lernparametern (Lernrate, Diskontfaktor, Explorationsstrategie) und protokolliert Trainingsmetriken. Durch die Definition von Belohnungsfunktionen in Agentenplänen und das Ausführen von Simulationen können Entwickler beobachten, wie Agenten im Laufe der Zeit Entscheidungsfindung verbessern und sich an sich ändernde Umgebungen anpassen, ohne manuell Politiken zu codieren.
  • MARFT ist ein Open-Source-Toolkit für Multi-Agenten-Reinforcement-Learning (RL) zur Feinabstimmung für kollaborative KI-Workflows und Optimierung von Sprachmodellen.
    0
    0
    Was ist MARFT?
    MARFT ist ein in Python entwickeltes LLM, das reproduzierbare Experimente und schnelle Prototypentwicklung für kollaborative KI-Systeme ermöglicht.
  • Eine Open-Source-Minecraft-inspirierte RL-Plattform, die KI-Agenten ermöglicht, komplexe Aufgaben in anpassbaren 3D-Sandbox-Umgebungen zu erlernen.
    0
    0
    Was ist MineLand?
    MineLand stellt eine flexible 3D-Sandbox-Umgebung inspiriert von Minecraft bereit, um Verstärkungslern-Agenten zu trainieren. Es verfügt über Gym-kompatible APIs für nahtlose Integration mit bestehenden RL-Bibliotheken wie Stable Baselines, RLlib und eigenen Implementierungen. Nutzer erhalten Zugriff auf eine Bibliothek von Aufgaben, darunter Ressourcensammlung, Navigation und Konstruktionsherausforderungen, jede mit konfigurierbarer Schwierigkeit und Belohnungsstruktur. Echtzeit-Rendering, Multi-Agenten-Szenarien und Headless-Modi ermöglichen skalierbares Training und Benchmarking. Entwickler können neue Karten entwerfen, eigene Belohnungsfunktionen definieren und zusätzliche Sensoren oder Steuerungen integrieren. MineLand’s Open-Source-Codebasis fördert reproduzierbare Forschung, kollaborative Entwicklung und schnelles Prototyping von KI-Agenten in komplexen virtuellen Welten.
  • Vereinfachte PyTorch-Implementierung von AlphaStar, die das Training eines StarCraft II RL-Agenten mit modularer Netzwerkarchitektur und Selbstspiel ermöglicht.
    0
    0
    Was ist mini-AlphaStar?
    mini-AlphaStar entmystifiziert die komplexe AlphaStar-Architektur durch die Bereitstellung eines zugänglichen, Open-Source-PyTorch-Frameworks für die StarCraft II KI-Entwicklung. Es verfügt über räumliche Feature-Encoder für Bildschirm- und Minimap-Inputs, nicht-raumbezogene Feature-Verarbeitung, LSTM-Speicher-Module sowie separate Policy- und Wert-Netzwerke für Aktionsauswahl und Zustandsbewertung. Durch Imitationslernen für den Start und Reinforcement Learning mit Selbstspiel zur Feinabstimmung unterstützt es Umgebungs-Wrapper, die mit pysc2 kompatibel sind, Logging via TensorBoard und konfigurierbare Hyperparameter. Forscher und Studenten können Datensätze aus menschlichem Gameplay erstellen, Modelle auf benutzerdefinierten Szenarien trainieren, die Agentenleistung bewerten und Lernkurven visualisieren. Die modulare Codebasis ermöglicht einfache Experimente mit Varianten von Netzwerken, Trainingsplänen und Multi-Agent-Setups. Konzipiert für Bildung und Prototyping, nicht für den Produktionseinsatz.
  • Eine auf Unity ML-Agents basierende Umgebung zur Schulung kooperativer Multi-Agenten-Inspektionsaufgaben in anpassbaren 3D-virtuellen Szenarien.
    0
    0
    Was ist Multi-Agent Inspection Simulation?
    Multi-Agent Inspection Simulation bietet ein umfassendes Framework zur Simulation und Schulung mehrerer autonomer Agenten, die Inspektionsaufgaben in Unity 3D-Umgebungen kooperativ ausführen. Es integriert sich mit dem Unity ML-Agents-Toolkit und bietet konfigurierbare Szenen mit Inspektionszielen, anpassbaren Belohnungsfunktionen und Agentenverhaltensparametern. Forscher können benutzerdefinierte Umgebungen skripten, die Anzahl der Agenten definieren und Trainingspläne über Python-APIs festlegen. Das Paket unterstützt parallele Trainingssitzungen, TensorBoard-Logging und anpassbare Beobachtungen, einschließlich Raycasts, Kamerafeeds und Positionsdaten. Durch Anpassung der Hyperparameter und der Komplexität der Umgebung können Benutzer Verstärkungslern-Algorithmen anhand von Abdeckung, Effizienz und Koordinationsmetriken benchmarken. Der Open-Source-Code fördert die Erweiterung für Robotik-Prototypen, kooperative KI-Forschung und Bildungsdemonstrationen im Bereich Multi-Agenten-Systeme.
  • Open-Source Python-Umgebung zum Trainieren von KI-Agenten für die kooperative Überwachung und Erkennung von Eindringlingen in gitterbasierten Szenarien.
    0
    0
    Was ist Multi-Agent Surveillance?
    Multi-Agent Surveillance bietet einen flexiblen Simulationsrahmen, in dem mehrere KI-Agenten als Räuber oder Verfolger in einer diskreten Gitterwelt agieren. Benutzer können Umgebungsparameter wie Gitterabmessungen, Anzahl der Agenten, Erkennungsradien und Belohnungsstrukturen konfigurieren. Das Repository umfasst Python-Klassen für das Verhalten der Agenten, Szenarien-Generierungsskripte, integrierte Visualisierung mittels matplotlib und nahtlose Integration mit beliebten Verstärkungslernen-Bibliotheken. Dies erleichtert die Benchmarking von Multi-Agenten-Koordination, die Entwicklung maßgeschneiderter Überwachungsstrategien und die Durchführung reproduzierbarer Experimente.
  • Eine Open-Source-Python-Simulationsumgebung zur Schulung der kooperativen Drohnenschwarmkontrolle mit Multi-Agenten-Verstärkendem Lernen.
    0
    0
    Was ist Multi-Agent Drone Environment?
    Multi-Agent-Drohnenumgebung ist ein Python-Paket, das eine anpassbare Multi-Agenten-Simulation für UAV-Schwärme bietet, basierend auf OpenAI Gym und PyBullet. Nutzer definieren mehrere Drohnenagenten mit kinematischen und dynamischen Modellen, um kooperative Aufgaben wie Formationsflug, Zielverfolgung und Hindernisvermeidung zu erforschen. Die Umgebung unterstützt modulare Aufgaben konfigurieren, realistische Kollisionsdetektion und Sensor-Emulation, während benutzerdefinierte Belohnungsfunktionen und dezentrale Policies ermöglicht werden. Entwickler können ihre eigenen Verstärkendem-Lernen-Algorithmen integrieren, die Leistung unter verschiedenen Szenarien bewerten und Agentenverläufe sowie Metriken in Echtzeit visualisieren. Das Open-Source-Design fördert Community-Beiträge und ist ideal für Forschung, Lehre und Prototyping fortschrittlicher Multi-Agenten-Steuerungslösungen.
  • Koordiniert mehrere autonome Abfallsammler mithilfe von Verstärkendem Lernen, um Sammelrouten effizient zu optimieren.
    0
    0
    Was ist Multi-Agent Autonomous Waste Collection System?
    Das Multi-Agenten-Autonomous Waste Collection System ist eine forschungsbasierte Plattform, die Multi-Agenten-Verstärkendes Lernen einsetzt, um einzelne Abfallsammelroboter im Routenkonflikt zu trainieren. Die Agenten lernen, redundante Abdeckung zu vermeiden, die Fahrstrecke zu minimieren und auf dynamische Abfallmuster zu reagieren. Das System ist in Python entwickelt und integriert eine Simulationsumgebung zur Testung und Verfeinerung der Richtlinien vor dem echten Einsatz. Nutzer können Kartenlayouts, Abfallentsorgungsstellen, Sensoreinstellungen der Agenten und Belohnungsstrukturen konfigurieren, um das Verhalten an spezifische urbane Bereiche oder Betriebsbeschränkungen anzupassen.
  • Open-Source-Mult-Agent-KI-Framework für kollaboratives Objekt-Tracking in Videos unter Verwendung von Deep Learning und verstärkter Entscheidungsfindung.
    0
    0
    Was ist Multi-Agent Visual Tracking?
    Multi-Agent Visual Tracking implementiert ein verteiltes Tracking-System, das aus intelligenten Agenten besteht, die kommunizieren, um Genauigkeit und Robustheit bei der Video-Objektverfolgung zu verbessern. Agenten führen Faltungsneuronennetze für die Erkennung aus, teilen Beobachtungen zur Handhabung von Occlusions und passen Tracking-Parameter durch Verstärkungslernen an. Kompatibel mit gängigen Videodatensätzen, unterstützt es sowohl Training als auch Echtzeit-Inferenz. Nutzer können es einfach in bestehende Pipelines integrieren und Verhaltensweisen der Agenten für individuelle Anwendungen erweitern.
  • Eine Open-Source-Mehragenten-Reinforcement-Learning-Framework, das Rohsteuerung und Koordination von Agenten in StarCraft II über PySC2 ermöglicht.
    0
    0
    Was ist MultiAgent-Systems-StarCraft2-PySC2-Raw?
    MultiAgent-Systems-StarCraft2-PySC2-Raw bietet ein vollständiges Toolkit zum Entwickeln, Trainieren und Bewerten mehrerer KI-Agenten in StarCraft II. Es stellt Low-Level-Kontrollen für Einheitenbewegung, Zielverfolgung und Fähigkeiten bereit und erlaubt gleichzeitig eine flexible Belohnungs- und Szenarienkonfiguration. Nutzer können eigene neuronale Netzwerkarchitekturen integrieren, Team-Strategien definieren und Metriken aufzeichnen. Basierend auf PySC2 unterstützt es paralleles Training, Checkpointing und Visualisierung, was es ideal für Forschung im Bereich kooperatives und adversariales multi-agenten Reinforcement Learning macht.
  • Ein auf Python basierendes Multi-Agenten-Verstärkungslernen-Framework zur Entwicklung und Simulation kooperativer und kompetitiver KI-Agenten-Umgebungen.
    0
    0
    Was ist Multiagent_system?
    Multiagent_system bietet ein umfassendes Werkzeugset zum Erstellen und Verwalten von Multi-Agenten-Umgebungen. Nutzer können benutzerdefinierte Simulationsszenarien definieren, Agentenverhalten spezifizieren und vorimplementierte Algorithmen wie DQN, PPO und MADDPG verwenden. Das Framework unterstützt synchrones und asynchrones Training, wobei Agenten gleichzeitig oder abwechselnd interagieren können. Eingebaute Kommunikationsmodule erleichtern das Nachrichtenversand zwischen Agenten für Kooperationsstrategien. Die Konfiguration von Experimenten erfolgt vereinfacht über YAML-Dateien, und Ergebnisse werden automatisch in CSV oder TensorBoard protokolliert. Visualisierungsskripte helfen bei der Interpretation von Agentenbewegungen, Belohnungsentwicklung und Kommunikationsmustern. Für Forschungs- und Produktionsarbeit entwickelt, skaliert Multiagent_system nahtlos von Einzelmaschinen-Prototypen bis hin zu verteilter Schulung auf GPU-Clustern.
  • Ein auf Python basierendes Multi-Agenten-Simulationsframework, das gleichzeitige Zusammenarbeit, Wettbewerb und Schulung von Agenten in anpassbaren Umgebungen ermöglicht.
    0
    1
    Was ist MultiAgentes?
    MultiAgentes bietet eine modulare Architektur zur Definition von Umgebungen und Agenten, die synchrone und asynchrone Multi-Agenten-Interaktionen unterstützt. Es umfasst Basisklassen für Umgebungen und Agenten, vordefinierte Szenarien für kooperative und wettbewerbsorientierte Aufgaben, Werkzeuge zur Anpassung von Belohnungsfunktionen und APIs für die Kommunikation zwischen Agenten und die Beobachtungsteilung. Visualisierungs utils ermöglichen die Echtzeitüberwachung des Agentenverhaltens, während Logger-Module Leistungsmetriken aufzeichnen. Das Framework integriert sich nahtlos mit Gym-kompatiblen Reinforcement-Learning-Bibliotheken, sodass Nutzer Agenten mit bestehenden Algorithmen trainieren können. MultiAgentes ist auf Erweiterbarkeit ausgelegt, sodass Entwickler neue Umgebungsvorlagen, Agententypen und Kommunikationsprotokolle hinzufügen können, um vielfältige Forschungs- und Bildungsanwendungen abzudecken.
  • Open-Source-Framework zur Implementierung und Bewertung multi-agentenbasierter KI-Strategien in einer klassischen Pacman-Spielumgebung.
    0
    0
    Was ist MultiAgentPacman?
    MultiAgentPacman bietet eine in Python geschriebene Spielumgebung, in der Benutzer mehrere KI-Agenten im Pacman-Bereich implementieren, visualisieren und benchmarken können. Es unterstützt Adversarial Search-Algorithmen wie Minimax, Expectimax, Alpha-Beta sowie eigene Verstärkungslern- oder heuristische Agenten. Das Framework umfasst eine einfache GUI, Befehlszeilesteuerung und Tools zur Protokollierung von Spieldaten und Leistungsvergleich zwischen Agenten in Wettbewerbs- oder Kooperationsszenarien.
Ausgewählt