Die besten agent navigation-Lösungen für Sie

Finden Sie bewährte agent navigation-Tools, die sowohl für Anfänger als auch für Experten geeignet sind, und steigern Sie Ihre Produktivität.

agent navigation

  • Pits and Orbs bietet eine Multi-Agenten-Gitterswelt, in der KI-Agenten Fallen meiden, Orbs sammeln und in rundenbasierten Szenarien konkurrieren.
    0
    0
    Was ist Pits and Orbs?
    Pits and Orbs ist eine Open-Source-Umgebung für Verstärkendes Lernen, implementiert in Python, die eine rundenbasierte Multi-Agenten-Gitterswelt bietet, in der Agenten Zielsetzungen verfolgen und Umweltgefahren begegnen. Jeder Agent muss ein anpassbares Gitter navigieren, zufällig platzierte Fallen meiden, die Episoden bestrafen oder beenden, und Orbs für positive Belohnungen sammeln. Die Umgebung unterstützt sowohl Wettbewerbs- als auch Kooperationsmodi, sodass Forscher verschiedene Lernszenarien erkunden können. Ihre einfache API integriert sich nahtlos mit beliebten RL-Bibliotheken wie Stable Baselines oder RLlib. Zu den Hauptmerkmalen gehören anpassbare Gittergrößen, dynamische Fallen- und Orb-Verteilungen, konfigurierbare Belohnungsstrukturen und optionales Logging für das Trainings-Tracking.
  • RL Shooter bietet eine anpassbare Doom-basierte Verstärkendes Lernumgebung zum Trainieren von KI-Agenten, um Ziele zu navigieren und zu schießen.
    0
    0
    Was ist RL Shooter?
    RL Shooter ist ein Python-basiertes Framework, das ViZDoom mit OpenAI Gym APIs integriert, um eine flexible Verstärkendes Lernumgebung für FPS-Spiele zu schaffen. Benutzer können benutzerdefinierte Szenarien, Karten und Belohnungsstrukturen definieren, um Agenten bei Navigation, Zielerkennung und Schießaufgaben zu trainieren. Mit anpassbaren Beobachtungsrahmen, Aktionsräumen und Protokollierungseinrichtungen unterstützt es beliebte Deep-RL-Bibliotheken wie Stable Baselines und RLlib, und ermöglicht klare Leistungsmessung und Reproduzierbarkeit in den Experimenten.
  • Ein PyTorch-Framework, das Agenten ermöglicht, emergente Kommunikationsprotokolle in Multi-Agenten-Verstärkungslernaufgaben zu erlernen.
    0
    0
    Was ist Learning-to-Communicate-PyTorch?
    Dieses Repository implementiert emergente Kommunikation im Multi-Agenten-Verstärkungslernen mit PyTorch. Benutzer können neuronale Netzwerke für Sender und Empfänger konfigurieren, um referenzielle Spiele oder kooperative Navigation zu spielen, und so Agenten dazu ermutigen, einen diskreten oder kontinuierlichen Kommunikationskanal zu entwickeln. Es bietet Skripte für Training, Bewertung und Visualisierung gelernter Protokolle sowie Hilfsmittel für die Erstellung von Umgebungen, Nachrichtenkodierung und -decodierung. Forscher können es mit benutzerdefinierten Aufgaben erweitern, Netzarchitekturen anpassen und die Effizienz der Protokolle analysieren, um schnelle Experimente in emergenter Agentenkommunikation zu ermöglichen.
Ausgewählt