Die besten IA de jeu-Lösungen für Sie

Finden Sie bewährte IA de jeu-Tools, die sowohl für Anfänger als auch für Experten geeignet sind, und steigern Sie Ihre Produktivität.

IA de jeu

  • BomberManAI ist ein auf Python basierender KI-Agent, der sich autonom in Bomberman-Spielumgebungen navigiert und kämpft und Suchalgorithmen verwendet.
    0
    0
    Was ist BomberManAI?
    BomberManAI ist ein KI-Agent, der das klassische Bomberman-Spiel autonom spielen soll. Entwickelt in Python, interagiert er mit einer Spielumgebung, um Kartenstatus, verfügbare Züge und Gegnerpositionen in Echtzeit zu erfassen. Der Kernalgorithmus kombiniert A*-Pfadfindung, Breitensuche zur Erreichbarkeitsanalyse und eine heuristische Bewertungsfunktion, um optimale Bombenplatzierung und Fluchtstrategien zu bestimmen. Der Agent handhabt dynamische Hindernisse, Power-Ups und mehrere Gegner auf verschiedenen Kartenlayouts. Seine modulare Architektur ermöglicht die Entwicklung mit benutzerdefinierten Heuristiken, Verstärkendem Lernen oder alternativen Entscheidungsstrategien. Ideal für Spiel-KI-Forscher, Studenten und wettbewerbliche Bot-Entwickler bietet BomberManAI einen flexiblen Rahmen für das Testen und Verbessern autonomer Spielagenten.
  • Ein RL-Framework mit PPO-, DQN-Trainings- und Bewertungswerkzeugen für die Entwicklung wettbewerbsfähiger Pommerman-Agenten.
    0
    0
    Was ist PommerLearn?
    PommerLearn ermöglicht Forschern und Entwicklern das Training von Multi-Agenten-RL-Bots in der Pommerman-Umgebung. Es enthält einsatzfertige Implementierungen beliebter Algorithmen (PPO, DQN), flexible Konfigurationsdateien für Hyperparameter, automatische Protokollierung und Visualisierung von Trainingsmetriken, Modell-Checkpointing und Evaluierungsskripte. Die modulare Architektur erleichtert die Erweiterung durch neue Algorithmen, die Anpassung der Umgebung und die Integration mit standardmäßigen ML-Bibliotheken wie PyTorch.
  • VMAS ist ein modulares MARL-Rahmenwerk, das GPU-beschleunigte Multi-Agenten-Umgebungssimulation und -training mit integrierten Algorithmen ermöglicht.
    0
    0
    Was ist VMAS?
    VMAS ist ein umfassendes Toolkit zum Aufbau und Training von Multi-Agenten-Systemen mit Deep Reinforcement Learning. Es unterstützt GPU-basiertes Parallel-Rendering von Hunderten von Umgebungsinstanzen, ermöglicht Hochdurchsatz-Datensammlung und skalierbares Training. VMAS umfasst Implementierungen populärer MARL-Algorithmen wie PPO, MADDPG, QMIX und COMA sowie modulare Politik- und Umfeldschnittstellen für schnelle Prototypisierung. Das Framework erleichtert zentrales Training mit dezentraler Ausführung (CTDE), bietet anpassbare Belohnungsformung, Beobachtungsräume und Callback-Hooks für Logging und Visualisierung. Mit seinem modularen Design integriert sich VMAS nahtlos mit PyTorch-Modellen und externen Umgebungen und ist ideal für Forschung in kooperativen, konkurrierenden und gemischten Aufgaben in Robotik, Verkehrssteuerung, Ressourcenverwaltung und Spiel-KI-Szenarien.
  • Open-Source TensorFlow-basierter Deep-Q-Network-Agent, der durch Erfahrungsreplay und Zielnetzwerke lernt, Atari Breakout zu spielen.
    0
    0
    Was ist DQN-Deep-Q-Network-Atari-Breakout-TensorFlow?
    DQN-Deep-Q-Network-Atari-Breakout-TensorFlow bietet eine vollständige Implementierung des DQN-Algorithmus, speziell für die Atari Breakout-Umgebung. Es verwendet ein konvolutionales neuronales Netzwerk zur Approximation der Q-Werte, nutzt Erfahrungsreplay, um Korrelationen zwischen aufeinanderfolgenden Beobachtungen zu unterbrechen, und verwendet ein periodisch aktualisiertes Zielnetzwerk, um das Training zu stabilisieren. Der Agent folgt einer epsilon-greedy-Strategie zur Erkundung und kann von Grund auf mit rohem Pixelinput trainiert werden. Das Repository umfasst Konfigurationsdateien, Trainingsscripte zur Überwachung des Belohnungswachstums, Bewertungsskripte für das Testen trainierter Modelle und TensorBoard-Tools zur Visualisierung von Trainingsmetriken. Nutzer können Hyperparameter wie Lernrate, Replay-Puffergröße und Batch-Größe anpassen, um verschiedene Setups zu testen.
Ausgewählt