Die besten ИИ для StarCraft II-Lösungen für Sie

Finden Sie bewährte ИИ для StarCraft II-Tools, die sowohl für Anfänger als auch für Experten geeignet sind, und steigern Sie Ihre Produktivität.

ИИ для StarCraft II

  • Vereinfachte PyTorch-Implementierung von AlphaStar, die das Training eines StarCraft II RL-Agenten mit modularer Netzwerkarchitektur und Selbstspiel ermöglicht.
    0
    0
    Was ist mini-AlphaStar?
    mini-AlphaStar entmystifiziert die komplexe AlphaStar-Architektur durch die Bereitstellung eines zugänglichen, Open-Source-PyTorch-Frameworks für die StarCraft II KI-Entwicklung. Es verfügt über räumliche Feature-Encoder für Bildschirm- und Minimap-Inputs, nicht-raumbezogene Feature-Verarbeitung, LSTM-Speicher-Module sowie separate Policy- und Wert-Netzwerke für Aktionsauswahl und Zustandsbewertung. Durch Imitationslernen für den Start und Reinforcement Learning mit Selbstspiel zur Feinabstimmung unterstützt es Umgebungs-Wrapper, die mit pysc2 kompatibel sind, Logging via TensorBoard und konfigurierbare Hyperparameter. Forscher und Studenten können Datensätze aus menschlichem Gameplay erstellen, Modelle auf benutzerdefinierten Szenarien trainieren, die Agentenleistung bewerten und Lernkurven visualisieren. Die modulare Codebasis ermöglicht einfache Experimente mit Varianten von Netzwerken, Trainingsplänen und Multi-Agent-Setups. Konzipiert für Bildung und Prototyping, nicht für den Produktionseinsatz.
    mini-AlphaStar Hauptfunktionen
    • Räumliche und nicht-raumbezogene Feature-Codierung
    • LSTM-basierte Speicher-Module
    • Getrennte Policy- und Wertnetzwerke
    • Imitationslernen und Reinforcement-Learning-Pipelines
    • Selbstspiel-Umgebungs-Wrapper via pysc2
    • TensorBoard-Logging und Visualisierung
    • Konfigurierbare Hyperparameter
    • Modulare PyTorch-Codebasis
  • Ein Open-Source-Verstärkungslernagent, der PPO verwendet, um StarCraft II über DeepMinds PySC2-Umgebung zu trainieren und zu spielen.
    0
    0
    Was ist StarCraft II Reinforcement Learning Agent?
    Dieses Repository bietet ein End-to-End-Verstärkungslernframework für die Forschung im StarCraft II Gameplay. Der Kernagent verwendet Proximal Policy Optimization (PPO), um Policies-Netzwerke zu erlernen, die Beobachtungsdaten aus der PySC2-Umgebung interpretieren und präzise Spielaktionen ausführen. Entwickler können neuronale Netzwerkschichten, Belohnungsformung und Trainingspläne konfigurieren, um die Leistung zu optimieren. Das System unterstützt Mehrprozessverarbeitung für effiziente Beispelsammlung, Protokollierungstools zur Überwachung der Trainingskurven und Evaluierungsskripte zum Testen trainierter Policies gegen skriptgesteuerte oder integrierte KI-Gegner. Der Code ist in Python geschrieben und nutzt TensorFlow für Modelldefinition und Optimierung. Nutzer können Komponenten wie maßgeschneiderte Belohnungsfunktionen, Zustandsvorverarbeitung oder Netzwerkarchitekturen erweitern, um spezifische Forschungsziele zu verfolgen.
Ausgewählt