Die besten StarCraft II AI-Lösungen für Sie

Finden Sie bewährte StarCraft II AI-Tools, die sowohl für Anfänger als auch für Experten geeignet sind, und steigern Sie Ihre Produktivität.

StarCraft II AI

  • Ein Open-Source-Verstärkungslernagent, der PPO verwendet, um StarCraft II über DeepMinds PySC2-Umgebung zu trainieren und zu spielen.
    0
    0
    Was ist StarCraft II Reinforcement Learning Agent?
    Dieses Repository bietet ein End-to-End-Verstärkungslernframework für die Forschung im StarCraft II Gameplay. Der Kernagent verwendet Proximal Policy Optimization (PPO), um Policies-Netzwerke zu erlernen, die Beobachtungsdaten aus der PySC2-Umgebung interpretieren und präzise Spielaktionen ausführen. Entwickler können neuronale Netzwerkschichten, Belohnungsformung und Trainingspläne konfigurieren, um die Leistung zu optimieren. Das System unterstützt Mehrprozessverarbeitung für effiziente Beispelsammlung, Protokollierungstools zur Überwachung der Trainingskurven und Evaluierungsskripte zum Testen trainierter Policies gegen skriptgesteuerte oder integrierte KI-Gegner. Der Code ist in Python geschrieben und nutzt TensorFlow für Modelldefinition und Optimierung. Nutzer können Komponenten wie maßgeschneiderte Belohnungsfunktionen, Zustandsvorverarbeitung oder Netzwerkarchitekturen erweitern, um spezifische Forschungsziele zu verfolgen.
    StarCraft II Reinforcement Learning Agent Hauptfunktionen
    • PPO-basiertes Policy-Training in der SC2-Umgebung
    • Integration mit DeepMind PySC2 für Zustands/Aktions-Handling
    • Konfigurierbare neuronale Netzwerkarchitekturen und Belohnungen
    • Multiprozess-Unterstützung für parallele Probensammlung
    • Protokollierung und TensorBoard-Integration
    • Evaluierungsskripte für Benchmarking von Agenten
  • Vereinfachte PyTorch-Implementierung von AlphaStar, die das Training eines StarCraft II RL-Agenten mit modularer Netzwerkarchitektur und Selbstspiel ermöglicht.
    0
    0
    Was ist mini-AlphaStar?
    mini-AlphaStar entmystifiziert die komplexe AlphaStar-Architektur durch die Bereitstellung eines zugänglichen, Open-Source-PyTorch-Frameworks für die StarCraft II KI-Entwicklung. Es verfügt über räumliche Feature-Encoder für Bildschirm- und Minimap-Inputs, nicht-raumbezogene Feature-Verarbeitung, LSTM-Speicher-Module sowie separate Policy- und Wert-Netzwerke für Aktionsauswahl und Zustandsbewertung. Durch Imitationslernen für den Start und Reinforcement Learning mit Selbstspiel zur Feinabstimmung unterstützt es Umgebungs-Wrapper, die mit pysc2 kompatibel sind, Logging via TensorBoard und konfigurierbare Hyperparameter. Forscher und Studenten können Datensätze aus menschlichem Gameplay erstellen, Modelle auf benutzerdefinierten Szenarien trainieren, die Agentenleistung bewerten und Lernkurven visualisieren. Die modulare Codebasis ermöglicht einfache Experimente mit Varianten von Netzwerken, Trainingsplänen und Multi-Agent-Setups. Konzipiert für Bildung und Prototyping, nicht für den Produktionseinsatz.
  • Eine Open-Source-Mehragenten-Reinforcement-Learning-Framework, das Rohsteuerung und Koordination von Agenten in StarCraft II über PySC2 ermöglicht.
    0
    0
    Was ist MultiAgent-Systems-StarCraft2-PySC2-Raw?
    MultiAgent-Systems-StarCraft2-PySC2-Raw bietet ein vollständiges Toolkit zum Entwickeln, Trainieren und Bewerten mehrerer KI-Agenten in StarCraft II. Es stellt Low-Level-Kontrollen für Einheitenbewegung, Zielverfolgung und Fähigkeiten bereit und erlaubt gleichzeitig eine flexible Belohnungs- und Szenarienkonfiguration. Nutzer können eigene neuronale Netzwerkarchitekturen integrieren, Team-Strategien definieren und Metriken aufzeichnen. Basierend auf PySC2 unterstützt es paralleles Training, Checkpointing und Visualisierung, was es ideal für Forschung im Bereich kooperatives und adversariales multi-agenten Reinforcement Learning macht.
Ausgewählt