Die besten Trainingsskripte-Lösungen für Sie

Finden Sie bewährte Trainingsskripte-Tools, die sowohl für Anfänger als auch für Experten geeignet sind, und steigern Sie Ihre Produktivität.

Trainingsskripte

  • MARL-DPP implementiert Multi-Agenten-Renforcement-Learning mit Diversität mittels Determinantal Point Processes, um vielfältige koordinierte Politiken zu fördern.
    0
    0
    Was ist MARL-DPP?
    MARL-DPP ist ein Open-Source-Framework, das Multi-Agenten-Verstärkungslernen (MARL) mit erzwungener Diversität durch Determinantal Point Processes (DPP) ermöglicht. Traditionelle MARL-Ansätze leiden oft daran, dass sich Politiken auf ähnliche Verhaltensweisen konvergieren; MARL-DPP adressiert dies, indem es dpp-basierte Maßnahmen integriert, um Agenten zu ermutigen, vielfältige Aktionsverteilungen beizubehalten. Das Toolkit bietet modulare Codes zur Einbettung von DPP in Trainingsziele, bei der Probenahme von Politiken und beim Management der Exploration. Es enthält fertige Integrationen mit Standard-Umgebungen wie OpenAI Gym und der Multi-Agent Particle Environment (MPE), sowie Werkzeuge für Hyperparameter-Management, Logging und die Visualisierung von Diversitätsmetriken. Forscher können die Auswirkungen von Diversitätsbeschränkungen bei kooperativen Aufgaben, Ressourcenallokation und Wettkampfspielen bewerten. Das erweiterbare Design unterstützt benutzerdefinierte Umgebungen und fortgeschrittene Algorithmen, um die Erforschung neuer MARL-DPP-Varianten zu erleichtern.
  • Implementiert dezentrales Multi-Agent-DDPG-Verstärkungslernen mit PyTorch und Unity ML-Agents für kollaboratives Agententraining.
    0
    0
    Was ist Multi-Agent DDPG with PyTorch & Unity ML-Agents?
    Dieses Open-Source-Projekt liefert ein vollständiges Multi-Agent-Verstärkungslernen-Framework, das auf PyTorch und Unity ML-Agents basiert. Es bietet dezentrale DDPG-Algorithmen, Umgebungs-Wrapper und Trainingsskripte. Nutzer können Agentenrichtlinien, Kritiker-Netzwerke, Replay-Puffer und parallele Trainings-Worker konfigurieren. Log-Hooks ermöglichen die Überwachung mit TensorBoard, während modulare Code-Strukturen benutzerdefinierte Belohnungsfunktionen und Umgebungsparameter unterstützen. Das Repository umfasst Beispiel-Szenen in Unity, die kollaborative Navigationsaufgaben demonstrieren, und ist damit ideal, um Multi-Agent-Szenarien in Simulationen zu erweitern und zu benchmarking.
  • Open-Source-Rahmenwerk basierend auf PyTorch, das die CommNet-Architektur für Multi-Agenten-Verstärkungslernen mit inter-agent Kommunikation implementiert und kollaborative Entscheidungsfindung ermöglicht.
    0
    0
    Was ist CommNet?
    CommNet ist eine forschungsorientierte Bibliothek, die die CommNet-Architektur implementiert und es mehreren Agenten erlaubt, Hidden-States bei jedem Zeitschritt zu teilen und Aktionen in kooperativen Umgebungen zu koordinieren. Es beinhaltet PyTorch-Modell-Definitionen, Trainings- und Evaluierungsskripte, Umgebungswrapper für OpenAI Gym und Utilities zur Anpassung der Kommunikationskanäle, Agentenzahlen und Netzwerktiefen. Forscher und Entwickler können CommNet nutzen, um Inter-Agent-Kommunikationsstrategien bei Navigations-, Verfolgungs- und Ressourcen-Sammelaufgaben zu prototypisieren und zu benchmarken.
  • Ein PyTorch-Framework, das Agenten ermöglicht, emergente Kommunikationsprotokolle in Multi-Agenten-Verstärkungslernaufgaben zu erlernen.
    0
    0
    Was ist Learning-to-Communicate-PyTorch?
    Dieses Repository implementiert emergente Kommunikation im Multi-Agenten-Verstärkungslernen mit PyTorch. Benutzer können neuronale Netzwerke für Sender und Empfänger konfigurieren, um referenzielle Spiele oder kooperative Navigation zu spielen, und so Agenten dazu ermutigen, einen diskreten oder kontinuierlichen Kommunikationskanal zu entwickeln. Es bietet Skripte für Training, Bewertung und Visualisierung gelernter Protokolle sowie Hilfsmittel für die Erstellung von Umgebungen, Nachrichtenkodierung und -decodierung. Forscher können es mit benutzerdefinierten Aufgaben erweitern, Netzarchitekturen anpassen und die Effizienz der Protokolle analysieren, um schnelle Experimente in emergenter Agentenkommunikation zu ermöglichen.
  • Ein Open-Source-Multi-Agenten-Framework, das aufkommende sprachbasierte Kommunikation ermöglicht, um skalierbare kollaborative Entscheidungsfindung und Umweltexploration zu erleichtern.
    0
    0
    Was ist multi_agent_celar?
    multi_agent_celar ist als modulares KI-Plattform konzipiert, die aufkommende Sprachkommunikation zwischen mehreren intelligenten Agenten in simulierten Umgebungen ermöglicht. Benutzer können das Verhalten der Agenten über Policy-Dateien definieren, Umgebungsparameter konfigurieren und koordinierte Trainingssitzungen starten, bei denen die Agenten ihre eigenen Kommunikationsprotokolle entwickeln, um kooperative Aufgaben zu lösen. Das Framework umfasst Evaluierungsskripte, Visualisierungstools und Unterstützung für skalierbare Experimente, was es ideal für Forschungsarbeiten zu Multi-Agenten-Kollaboration, aufkommender Sprache und Entscheidungsprozessen macht.
  • Open-Source TensorFlow-basierter Deep-Q-Network-Agent, der durch Erfahrungsreplay und Zielnetzwerke lernt, Atari Breakout zu spielen.
    0
    0
    Was ist DQN-Deep-Q-Network-Atari-Breakout-TensorFlow?
    DQN-Deep-Q-Network-Atari-Breakout-TensorFlow bietet eine vollständige Implementierung des DQN-Algorithmus, speziell für die Atari Breakout-Umgebung. Es verwendet ein konvolutionales neuronales Netzwerk zur Approximation der Q-Werte, nutzt Erfahrungsreplay, um Korrelationen zwischen aufeinanderfolgenden Beobachtungen zu unterbrechen, und verwendet ein periodisch aktualisiertes Zielnetzwerk, um das Training zu stabilisieren. Der Agent folgt einer epsilon-greedy-Strategie zur Erkundung und kann von Grund auf mit rohem Pixelinput trainiert werden. Das Repository umfasst Konfigurationsdateien, Trainingsscripte zur Überwachung des Belohnungswachstums, Bewertungsskripte für das Testen trainierter Modelle und TensorBoard-Tools zur Visualisierung von Trainingsmetriken. Nutzer können Hyperparameter wie Lernrate, Replay-Puffergröße und Batch-Größe anpassen, um verschiedene Setups zu testen.
Ausgewählt