Outils custom reward functions simples et intuitifs

Explorez des solutions custom reward functions conviviales, conçues pour simplifier vos projets et améliorer vos performances.

custom reward functions

  • Gym-Recsys fournit des environnements OpenAI Gym personnalisables pour une formation évolutive et une évaluation des agents de recommandation par apprentissage par renforcement
    0
    0
    Qu'est-ce que Gym-Recsys ?
    Gym-Recsys est une boîte à outils qui encapsule des tâches de recommandation dans des environnements OpenAI Gym, permettant aux algorithmes d'apprentissage par renforcement d'interagir étape par étape avec des matrices utilisateur-élément simulées. Il fournit des générateurs de comportements utilisateur synthétiques, supporte le chargement de datasets populaires et livre des métriques standard comme Precision@K et NDCG. Les utilisateurs peuvent personnaliser les fonctions de récompense, les modèles utilisateur et les pools d’objets pour expérimenter différentes stratégies de recommandation RL de manière reproductible.
  • gym-fx fournit un environnement OpenAI Gym personnalisable pour former et évaluer des agents d'apprentissage par renforcement pour les stratégies de trading Forex.
    0
    0
    Qu'est-ce que gym-fx ?
    gym-fx est une bibliothèque Python open-source qui implémente un environnement de trading Forex simulé utilisant l'interface OpenAI Gym. Elle offre un support pour plusieurs paires de devises, l'intégration de flux de prix historiques, des indicateurs techniques et des fonctions de récompense entièrement personnalisables. En fournissant une API normalisée, gym-fx simplifie le benchmarking et le développement d'algorithmes d'apprentissage par renforcement pour le trading algorithmique. Les utilisateurs peuvent configurer le glissement de marché, les coûts de transaction et les espaces d'observation pour reproduire de près des scénarios de trading en direct, facilitant le développement et l'évaluation de stratégies robustes.
  • MARFT est une boîte à outils open-source d'affinement par apprentissage par renforcement multi-agent pour les flux de travail IA collaboratifs et l'optimisation de modèles linguistiques.
    0
    0
    Qu'est-ce que MARFT ?
    MARFT est un LLM basé sur Python, permettant des expériences reproductibles et la prototypage rapide de systèmes IA collaboratifs.
  • Environnement Python open-source pour former des agents IA coopératifs afin de surveiller et détecter les intrus dans des scénarios basés sur une grille.
    0
    0
    Qu'est-ce que Multi-Agent Surveillance ?
    Multi-Agent Surveillance offre un cadre de simulation flexible où plusieurs agents IA agissent comme prédateurs ou évadés dans un monde en grille discret. Les utilisateurs peuvent configurer les paramètres de l'environnement tels que les dimensions de la grille, le nombre d'agents, les rayons de détection et les structures de récompense. Le dépôt comprend des classes Python pour le comportement des agents, des scripts de génération de scénarios, une visualisation intégrée via matplotlib et une intégration transparente avec des bibliothèques populaires d'apprentissage par renforcement. Cela facilite la création de benchmarks pour la coordination multi-agent, le développement de stratégies de surveillance personnalisées et la réalisation d'expériences reproductibles.
  • Implémente l'apprentissage par renforcement multi-agent DDPG décentralisé utilisant PyTorch et Unity ML-Agents pour la formation collaborative des agents.
    0
    0
    Qu'est-ce que Multi-Agent DDPG with PyTorch & Unity ML-Agents ?
    Ce projet open-source offre un cadre complet d'apprentissage par renforcement multi-agent basé sur PyTorch et Unity ML-Agents. Il propose des algorithmes DDPG décentralisés, des wrappers d'environnements et des scripts d'entraînement. Les utilisateurs peuvent configurer les politiques d'agents, les réseaux critiques, les buffers de relecture et les travailleurs d'entraînement parallèles. Les hooks de journalisation permettent la surveillance avec TensorBoard, tandis qu'une architecture modulaire supporte des fonctions de récompense et paramètres d'environnement personnalisés. Le dépôt inclut des scènes Unity d'exemple illustrant des tâches de navigation collaborative, idéal pour étendre et benchmarker des scénarios multi-agent en simulation.
  • RL Shooter fournit un environnement d'apprentissage par renforcement basé sur Doom, personnalisable, pour entraîner des agents IA à naviguer et tirer sur des cibles.
    0
    0
    Qu'est-ce que RL Shooter ?
    RL Shooter est un cadre basé sur Python qui intègre ViZDoom avec les API OpenAI Gym pour créer un environnement flexible d'apprentissage par renforcement pour les jeux FPS. Les utilisateurs peuvent définir des scénarios, cartes et structures de récompense personnalisés pour entraîner les agents sur la navigation, la détection de cibles et les tâches de tir. Avec des cadres d'observation, des espaces d'action et des facilités de journalisation configurables, il supporte des bibliothèques populaires de RL profond comme Stable Baselines et RLlib, permettant un suivi clair des performances et la reproductibilité des expériences.
  • Une bibliothèque Python légère pour créer des environnements de grille 2D personnalisables pour former et tester des agents d'apprentissage par renforcement.
    0
    0
    Qu'est-ce que Simple Playgrounds ?
    Simple Playgrounds fournit une plateforme modulaire pour construire des environnements interactifs en grille 2D où des agents peuvent naviguer dans des labyrinthes, interagir avec des objets et accomplir des tâches. Les utilisateurs définissent la disposition de l'environnement, le comportement des objets et les fonctions de récompense via des scripts YAML ou Python simples. Le moteur de rendu Pygame intégré fournit une visualisation en temps réel, tandis qu'une API basée sur des pas garantit une intégration fluide avec des bibliothèques de RL comme Stable Baselines3. Avec le support pour des configurations multi-agent, la détection de collisions et des paramètres physiques personnalisables, Simple Playgrounds facilite les prototypes, le benchmarking et les démonstrations éducatives d'algorithmes IA.
  • Un agent d'apprentissage par renforcement en source ouverte utilisant PPO pour entraîner et jouer à StarCraft II via l'environnement PySC2 de DeepMind.
    0
    0
    Qu'est-ce que StarCraft II Reinforcement Learning Agent ?
    Ce dépôt fournit un cadre complet d'apprentissage par renforcement pour la recherche sur le gameplay de StarCraft II. L'agent principal utilise la Proximal Policy Optimization (PPO) pour apprendre des réseaux de politiques interprétant les données d'observation de l'environnement PySC2 et générant des actions précises dans le jeu. Les développeurs peuvent configurer les couches de réseaux neuronaux, la reformulation des récompenses et les plannings d'entraînement pour optimiser la performance. Le système supporte la collecte d'échantillons en multiprocessing pour plus d'efficacité, des outils de journalisation pour suivre les courbes d'entraînement, et des scripts d'évaluation pour tester les politiques entraînées contre des adversaires scriptés ou IA intégrée. Le code est écrit en Python et utilise TensorFlow pour la définition et l'optimisation des modèles. Les utilisateurs peuvent étendre des composants tels que les fonctions de récompense personnalisées, le pré-traitement des états ou les architectures de réseaux pour répondre à leurs objectifs de recherche spécifiques.
Vedettes