Die besten TensorBoard-Visualisierung-Lösungen für Sie

Finden Sie bewährte TensorBoard-Visualisierung-Tools, die sowohl für Anfänger als auch für Experten geeignet sind, und steigern Sie Ihre Produktivität.

TensorBoard-Visualisierung

  • Vereinfachte PyTorch-Implementierung von AlphaStar, die das Training eines StarCraft II RL-Agenten mit modularer Netzwerkarchitektur und Selbstspiel ermöglicht.
    0
    0
    Was ist mini-AlphaStar?
    mini-AlphaStar entmystifiziert die komplexe AlphaStar-Architektur durch die Bereitstellung eines zugänglichen, Open-Source-PyTorch-Frameworks für die StarCraft II KI-Entwicklung. Es verfügt über räumliche Feature-Encoder für Bildschirm- und Minimap-Inputs, nicht-raumbezogene Feature-Verarbeitung, LSTM-Speicher-Module sowie separate Policy- und Wert-Netzwerke für Aktionsauswahl und Zustandsbewertung. Durch Imitationslernen für den Start und Reinforcement Learning mit Selbstspiel zur Feinabstimmung unterstützt es Umgebungs-Wrapper, die mit pysc2 kompatibel sind, Logging via TensorBoard und konfigurierbare Hyperparameter. Forscher und Studenten können Datensätze aus menschlichem Gameplay erstellen, Modelle auf benutzerdefinierten Szenarien trainieren, die Agentenleistung bewerten und Lernkurven visualisieren. Die modulare Codebasis ermöglicht einfache Experimente mit Varianten von Netzwerken, Trainingsplänen und Multi-Agent-Setups. Konzipiert für Bildung und Prototyping, nicht für den Produktionseinsatz.
  • Implementiert dezentrales Multi-Agent-DDPG-Verstärkungslernen mit PyTorch und Unity ML-Agents für kollaboratives Agententraining.
    0
    0
    Was ist Multi-Agent DDPG with PyTorch & Unity ML-Agents?
    Dieses Open-Source-Projekt liefert ein vollständiges Multi-Agent-Verstärkungslernen-Framework, das auf PyTorch und Unity ML-Agents basiert. Es bietet dezentrale DDPG-Algorithmen, Umgebungs-Wrapper und Trainingsskripte. Nutzer können Agentenrichtlinien, Kritiker-Netzwerke, Replay-Puffer und parallele Trainings-Worker konfigurieren. Log-Hooks ermöglichen die Überwachung mit TensorBoard, während modulare Code-Strukturen benutzerdefinierte Belohnungsfunktionen und Umgebungsparameter unterstützen. Das Repository umfasst Beispiel-Szenen in Unity, die kollaborative Navigationsaufgaben demonstrieren, und ist damit ideal, um Multi-Agent-Szenarien in Simulationen zu erweitern und zu benchmarking.
  • Vanilla Agents bietet einsatzbereite Implementierungen von DQN, PPO und A2C RL-Agenten mit anpassbaren Trainingspipelines.
    0
    0
    Was ist Vanilla Agents?
    Vanilla Agents ist ein leichtgewichtiges, auf PyTorch basierendes Framework, das modulare und erweiterbare Implementierungen wesentlicher Reinforcement-Learning-Agenten liefert. Es unterstützt Algorithmen wie DQN, Double DQN, PPO und A2C, mit anpassbaren Umwelt-Wrappern, die mit OpenAI Gym kompatibel sind. Benutzer können Hyperparameter konfigurieren, Trainingsmetriken protokollieren, Checkpoints speichern und Lernkurven visualisieren. Der Code ist klar strukturiert, ideal für Forschungsprototypen, Bildungszwecke und Benchmarking neuer Ideen im RL.
Ausgewählt