Outils 自定義獎勵函數 simples et intuitifs

Explorez des solutions 自定義獎勵函數 conviviales, conçues pour simplifier vos projets et améliorer vos performances.

自定義獎勵函數

  • MARFT est une boîte à outils open-source d'affinement par apprentissage par renforcement multi-agent pour les flux de travail IA collaboratifs et l'optimisation de modèles linguistiques.
    0
    0
    Qu'est-ce que MARFT ?
    MARFT est un LLM basé sur Python, permettant des expériences reproductibles et la prototypage rapide de systèmes IA collaboratifs.
  • Environnement Python open-source pour former des agents IA coopératifs afin de surveiller et détecter les intrus dans des scénarios basés sur une grille.
    0
    0
    Qu'est-ce que Multi-Agent Surveillance ?
    Multi-Agent Surveillance offre un cadre de simulation flexible où plusieurs agents IA agissent comme prédateurs ou évadés dans un monde en grille discret. Les utilisateurs peuvent configurer les paramètres de l'environnement tels que les dimensions de la grille, le nombre d'agents, les rayons de détection et les structures de récompense. Le dépôt comprend des classes Python pour le comportement des agents, des scripts de génération de scénarios, une visualisation intégrée via matplotlib et une intégration transparente avec des bibliothèques populaires d'apprentissage par renforcement. Cela facilite la création de benchmarks pour la coordination multi-agent, le développement de stratégies de surveillance personnalisées et la réalisation d'expériences reproductibles.
  • Implémente l'apprentissage par renforcement multi-agent DDPG décentralisé utilisant PyTorch et Unity ML-Agents pour la formation collaborative des agents.
    0
    0
    Qu'est-ce que Multi-Agent DDPG with PyTorch & Unity ML-Agents ?
    Ce projet open-source offre un cadre complet d'apprentissage par renforcement multi-agent basé sur PyTorch et Unity ML-Agents. Il propose des algorithmes DDPG décentralisés, des wrappers d'environnements et des scripts d'entraînement. Les utilisateurs peuvent configurer les politiques d'agents, les réseaux critiques, les buffers de relecture et les travailleurs d'entraînement parallèles. Les hooks de journalisation permettent la surveillance avec TensorBoard, tandis qu'une architecture modulaire supporte des fonctions de récompense et paramètres d'environnement personnalisés. Le dépôt inclut des scènes Unity d'exemple illustrant des tâches de navigation collaborative, idéal pour étendre et benchmarker des scénarios multi-agent en simulation.
  • RL Shooter fournit un environnement d'apprentissage par renforcement basé sur Doom, personnalisable, pour entraîner des agents IA à naviguer et tirer sur des cibles.
    0
    0
    Qu'est-ce que RL Shooter ?
    RL Shooter est un cadre basé sur Python qui intègre ViZDoom avec les API OpenAI Gym pour créer un environnement flexible d'apprentissage par renforcement pour les jeux FPS. Les utilisateurs peuvent définir des scénarios, cartes et structures de récompense personnalisés pour entraîner les agents sur la navigation, la détection de cibles et les tâches de tir. Avec des cadres d'observation, des espaces d'action et des facilités de journalisation configurables, il supporte des bibliothèques populaires de RL profond comme Stable Baselines et RLlib, permettant un suivi clair des performances et la reproductibilité des expériences.
  • Shepherding est un cadre RL basé sur Python pour former des agents IA à guider et mener plusieurs agents dans des simulations.
    0
    0
    Qu'est-ce que Shepherding ?
    Shepherding est un cadre de simulation open-source conçu pour les chercheurs et développeurs en apprentissage par renforcement afin d'étudier et d'implémenter des tâches de bergerie multi-agents. Il fournit un environnement compatible Gym où les agents peuvent apprendre à effectuer des comportements tels que faire le tour, collecter et disperser des groupes cibles dans des espaces continus ou discrets. Le cadre comprend des fonctions modulaires pour le façonnage de récompenses, la paramétrisation de l'environnement et des utilitaires de journalisation pour surveiller les performances d'entraînement. Les utilisateurs peuvent définir des obstacles, des populations d'agents dynamiques et des politiques personnalisées en utilisant TensorFlow ou PyTorch. Les scripts de visualisation génèrent des tracés de trajectoires et des enregistrements vidéo des interactions des agents. La conception modulaire de Shepherding permet une intégration transparente avec les bibliothèques RL existantes, facilitant la reproductibilité des expériences, le benchmarking de stratégies de coordination innovantes et le prototypage rapide de solutions de bergerie basées sur l'IA.
  • Une bibliothèque Python légère pour créer des environnements de grille 2D personnalisables pour former et tester des agents d'apprentissage par renforcement.
    0
    0
    Qu'est-ce que Simple Playgrounds ?
    Simple Playgrounds fournit une plateforme modulaire pour construire des environnements interactifs en grille 2D où des agents peuvent naviguer dans des labyrinthes, interagir avec des objets et accomplir des tâches. Les utilisateurs définissent la disposition de l'environnement, le comportement des objets et les fonctions de récompense via des scripts YAML ou Python simples. Le moteur de rendu Pygame intégré fournit une visualisation en temps réel, tandis qu'une API basée sur des pas garantit une intégration fluide avec des bibliothèques de RL comme Stable Baselines3. Avec le support pour des configurations multi-agent, la détection de collisions et des paramètres physiques personnalisables, Simple Playgrounds facilite les prototypes, le benchmarking et les démonstrations éducatives d'algorithmes IA.
Vedettes