Innovations en outils 強化学習

Découvrez des solutions 強化学習 révolutionnaires qui transforment votre manière de travailler au quotidien.

強化学習

  • Jason-RL équipe les agents Jason BDI avec l'apprentissage par renforcement, permettant une prise de décision adaptative basée sur Q-learning et SARSA via l'expérience de récompense.
    0
    0
    Qu'est-ce que jason-RL ?
    Jason-RL ajoute une couche d'apprentissage par renforcement au cadre multi-agent Jason, permettant aux agents AgentSpeak BDI d'apprendre des politiques de sélection d'actions via le feedback de récompense. Elle met en œuvre les algorithmes Q-learning et SARSA, supporte la configuration des paramètres d'apprentissage (taux d'apprentissage, facteur d'actualisation, stratégie d'exploration) et enregistre les métriques d'entraînement. En définissant des fonctions de récompense dans les plans d'agents et en exécutant des simulations, les développeurs peuvent observer l'amélioration des prises de décision des agents au fil du temps, s'adaptant à des environnements changeants sans coder manuellement les politiques.
  • MARFT est une boîte à outils open-source d'affinement par apprentissage par renforcement multi-agent pour les flux de travail IA collaboratifs et l'optimisation de modèles linguistiques.
    0
    0
    Qu'est-ce que MARFT ?
    MARFT est un LLM basé sur Python, permettant des expériences reproductibles et la prototypage rapide de systèmes IA collaboratifs.
  • Une plateforme RL open-source inspirée de Minecraft permettant aux agents IA d'apprendre des tâches complexes dans des environnements sandbox 3D personnalisables.
    0
    0
    Qu'est-ce que MineLand ?
    MineLand fournit un environnement sandbox 3D flexible inspiré de Minecraft pour former des agents d'apprentissage par renforcement. Il dispose d’API compatibles Gym pour une intégration transparente avec des bibliothèques RL existantes telles que Stable Baselines, RLlib, et des implémentations personnalisées. Les utilisateurs ont accès à une bibliothèque de tâches, notamment collecte de ressources, navigation et défis de construction, chacun avec une difficulté et une structure de récompense configurables. Le rendu en temps réel, les scénarios multi-agent et les modes sans interface graphique permettent un entraînement évolutif et des benchmarks. Les développeurs peuvent concevoir de nouvelles cartes, définir des fonctions de récompense personnalisées, et ajouter des capteurs ou contrôles supplémentaires. La base de code open-source de MineLand favorise la recherche reproductible, le développement collaboratif, et le prototypage rapide d’agents IA dans des mondes virtuels complexes.
  • Implémentation simplifiée de PyTorch d'AlphaStar, permettant l'entraînement d'un agent RL pour StarCraft II avec une architecture réseau modulaire et auto-jeu.
    0
    0
    Qu'est-ce que mini-AlphaStar ?
    mini-AlphaStar démystifie l'architecture complexe d'AlphaStar en proposant un cadre PyTorch accessible et Open Source pour le développement d'IA dans StarCraft II. Il comprend des encodeurs de caractéristiques spatiales pour les entrées écran et minimap, un traitement des caractéristiques non spatiales, des modules de mémoire LSTM, et des réseaux de politique et de valeur séparés pour la sélection d'actions et l'évaluation d'état. En utilisant l'apprentissage par imitation pour démarrer et l'apprentissage par renforcement avec auto-jeu pour l'affinage, il supporte les wrappers d'environnement compatibles avec pysc2, la journalisation via TensorBoard et des hyperparamètres configurables. Les chercheurs et étudiants peuvent générer des jeux de données à partir de parties humaines, entraîner des modèles sur des scénarios personnalisés, évaluer la performance des agents et visualiser les courbes d'apprentissage. La base de code modulaire facilite l'expérimentation avec différentes variantes de réseaux, programmes d'entraînement et configurations multi-agents. Conçu pour l'éducation et le prototypage, et non pour le déploiement en production.
  • Un environnement basé sur Unity ML-Agents pour la formation de tâches d'inspection multi-agents coopératives dans des scénarios virtuels 3D personnalisables.
    0
    0
    Qu'est-ce que Multi-Agent Inspection Simulation ?
    La simulation d'inspection multi-agent offre un cadre complet pour simuler et entraîner plusieurs agents autonomes à effectuer des tâches d'inspection en coopération dans des environnements Unity 3D. Elle s'intègre avec la boîte à outils Unity ML-Agents et propose des scènes configurables avec des cibles d'inspection, des fonctions de récompense ajustables et des paramètres de comportement des agents. Les chercheurs peuvent script des environnements personnalisés, définir le nombre d'agents et établir des curricula de formation via des APIs Python. Le paquet supporte les sessions d'entraînement parallèles, le journal TensorBoard et des observations personnalisables incluant des raycasts, des flux de caméras et des données de position. En ajustant les hyperparamètres et la complexité de l’environnement, les utilisateurs peuvent benchmarker des algorithmes d'apprentissage par renforcement sur des métriques de couverture, d'efficacité et de coordination. Le code open-source encourage l'extension pour la prototypie robotique, la recherche en IA coopérative et les démonstrations éducatives dans les systèmes multi-agents.
  • Environnement Python open-source pour former des agents IA coopératifs afin de surveiller et détecter les intrus dans des scénarios basés sur une grille.
    0
    0
    Qu'est-ce que Multi-Agent Surveillance ?
    Multi-Agent Surveillance offre un cadre de simulation flexible où plusieurs agents IA agissent comme prédateurs ou évadés dans un monde en grille discret. Les utilisateurs peuvent configurer les paramètres de l'environnement tels que les dimensions de la grille, le nombre d'agents, les rayons de détection et les structures de récompense. Le dépôt comprend des classes Python pour le comportement des agents, des scripts de génération de scénarios, une visualisation intégrée via matplotlib et une intégration transparente avec des bibliothèques populaires d'apprentissage par renforcement. Cela facilite la création de benchmarks pour la coordination multi-agent, le développement de stratégies de surveillance personnalisées et la réalisation d'expériences reproductibles.
  • Un environnement de simulation Python open-source pour former la commande coopérative de nuées de drones avec l'apprentissage par renforcement multi-agent.
    0
    0
    Qu'est-ce que Multi-Agent Drone Environment ?
    L'environnement multi-agent pour drones est un package Python proposant une simulation multi-agent configurable pour les nuées de UAV, basé sur OpenAI Gym et PyBullet. Les utilisateurs définissent plusieurs agents drones avec des modèles cinématiques et dynamiques pour explorer des tâches coopératives telles que le vol en formation, le suivi de cibles et l’évitement d’obstacles. L’environnement supporte la configuration modulaire des tâches, une détection de collision réaliste et l’émulation des capteurs, tout en permettant des fonctions de récompense personnalisées et des politiques décentralisées. Les développeurs peuvent intégrer leurs propres algorithmes d'apprentissage par renforcement, évaluer les performances sous divers scénarios et visualiser en temps réel les trajectoires et métriques des agents. Son design open-source encourage la contribution communautaire, le rendant idéal pour la recherche, l'enseignement et le prototypage de solutions avancées de contrôle multi-agent.
  • Coordonne plusieurs agents autonomes de collecte des déchets en utilisant l'apprentissage par renforcement pour optimiser efficacement les itinéraires de collecte.
    0
    0
    Qu'est-ce que Multi-Agent Autonomous Waste Collection System ?
    Le système de collecte autonome des déchets multi-agent est une plateforme basée sur la recherche qui utilise l'apprentissage par renforcement multi-agent pour entraîner des robots de collecte des déchets individuels à collaborer dans la planification des itinéraires. Les agents apprennent à éviter la couverture redondante, à minimiser la distance de déplacement et à répondre aux motifs de génération de déchets dynamiques. Construit en Python, le système intègre un environnement de simulation pour tester et affiner les politiques avant déploiement réel. Les utilisateurs peuvent configurer des cartes, des points de dépôt de déchets, des capteurs d'agents et des structures de récompenses pour adapter le comportement à des zones urbaines ou contraintes opérationnelles spécifiques.
  • Implémente l'apprentissage par renforcement multi-agent DDPG décentralisé utilisant PyTorch et Unity ML-Agents pour la formation collaborative des agents.
    0
    0
    Qu'est-ce que Multi-Agent DDPG with PyTorch & Unity ML-Agents ?
    Ce projet open-source offre un cadre complet d'apprentissage par renforcement multi-agent basé sur PyTorch et Unity ML-Agents. Il propose des algorithmes DDPG décentralisés, des wrappers d'environnements et des scripts d'entraînement. Les utilisateurs peuvent configurer les politiques d'agents, les réseaux critiques, les buffers de relecture et les travailleurs d'entraînement parallèles. Les hooks de journalisation permettent la surveillance avec TensorBoard, tandis qu'une architecture modulaire supporte des fonctions de récompense et paramètres d'environnement personnalisés. Le dépôt inclut des scènes Unity d'exemple illustrant des tâches de navigation collaborative, idéal pour étendre et benchmarker des scénarios multi-agent en simulation.
  • Framework open-source de multi-agent IA pour le suivi collaboratif d'objets dans des vidéos utilisant l'apprentissage profond et la prise de décision renforcée.
    0
    0
    Qu'est-ce que Multi-Agent Visual Tracking ?
    Multi-Agent Visual Tracking implémente un système de suivi distribué composé d'agents intelligents qui communiquent pour améliorer la précision et la robustesse du suivi d'objets vidéo. Les agents exécutent des réseaux neuronaux convolutifs pour la détection, partagent leurs observations pour gérer les occlusions et ajustent les paramètres de suivi via l'apprentissage par renforcement. Compatible avec des jeux de données vidéo populaires, il supporte aussi bien la formation que l'inférence en temps réel. Les utilisateurs peuvent l'intégrer facilement dans des pipelines existants et étendre les comportements des agents pour des applications personnalisées.
  • Une plateforme open-source d'apprentissage par renforcement multi-agent permettant un contrôle de niveau brut et la coordination dans StarCraft II via PySC2.
    0
    0
    Qu'est-ce que MultiAgent-Systems-StarCraft2-PySC2-Raw ?
    MultiAgent-Systems-StarCraft2-PySC2-Raw fournit un kit complet pour le développement, l'entraînement et l'évaluation de multiples agents IA dans StarCraft II. Il expose des contrôles de bas niveau pour le déplacement d'unités, la visée et les capacités, tout en permettant une conception flexible de récompenses et de scénarios. Les utilisateurs peuvent facilement insérer des architectures neuronales personnalisées, définir des stratégies de coordination en équipe et enregistrer des métriques. Basé sur PySC2, il supporte l'entraînement en parallèle, la création de points de contrôle et la visualisation, ce qui en fait un outil idéal pour faire progresser la recherche en apprentissage par renforcement multi-agent coopératif et adversarial.
  • Un cadre multi-agent basé sur Python pour le développement et la simulation d'environnements d'IA coopératifs et compétitifs utilisant l'apprentissage par renforcement.
    0
    0
    Qu'est-ce que Multiagent_system ?
    Multiagent_system offre une boîte à outils complète pour construire et gérer des environnements multi-agents. Les utilisateurs peuvent définir des scénarios de simulation personnalisés, spécifier les comportements des agents, et utiliser des algorithmes pré-implémentés tels que DQN, PPO et MADDPG. Le framework supporte un entraînement synchrone et asynchrone, permettant aux agents d'interagir simultanément ou en mode tour par tour. Les modules de communication intégrés facilitent l'échange de messages entre agents pour des stratégies coopératives. La configuration des expériences est simplifiée via des fichiers YAML, et les résultats sont automatiquement enregistrés au format CSV ou dans TensorBoard. Les scripts de visualisation aident à interpréter les trajectoires des agents, l'évolution des récompenses et les patterns de communication. Conçu pour la recherche et la production, Multiagent_system évolue sans effort de prototypes sur machine unique à un entraînement distribué sur des clusters GPU.
  • Un cadre de simulation multi-agent basé sur Python permettant la collaboration, la compétition et la formation simultanées des agents dans des environnements personnalisables.
    0
    1
    Qu'est-ce que MultiAgentes ?
    MultiAgentes offre une architecture modulaire pour définir des environnements et des agents, supportant des interactions multi-agent synchrones et asynchrones. Il comprend des classes de base pour les environnements et les agents, des scénarios prédéfinis pour des tâches coopératives et compétitives, des outils pour personnaliser les fonctions de récompense, et des API pour la communication entre agents et le partage d'observations. Les utilitaires de visualisation permettent une surveillance en temps réel des comportements des agents, tandis que les modules de journalisation enregistrent les métriques de performance pour analyse. Le framework s'intègre parfaitement avec les bibliothèques RL compatibles avec Gym, permettant aux utilisateurs d'entraîner des agents avec des algorithmes existants. MultiAgentes est conçu pour l'extensibilité, permettant aux développeurs d'ajouter de nouveaux modèles d'environnement, types d'agents et protocoles de communication adaptés à diverses applications de recherche et d'éducation.
  • Framework open-source permettant la mise en œuvre et l'évaluation de stratégies d'IA multi-agent dans un environnement de jeu Pacman classique.
    0
    0
    Qu'est-ce que MultiAgentPacman ?
    MultiAgentPacman offre un environnement de jeu en Python où les utilisateurs peuvent implémenter, visualiser et benchmarker plusieurs agents IA dans le domaine Pacman. Il supporte des algorithmes de recherche adverse tels que minimax, expectimax, élagage alpha-bêta, ainsi que des agents personnalisés utilisant l'apprentissage par renforcement ou des heuristiques. Le cadre inclut une GUI simple, des contrôles en ligne de commande et des outils pour enregistrer les statistiques de jeu et comparer la performance des agents dans des scénarios compétitifs ou coopératifs.
  • Une plateforme open-source Python permettant la conception, l'entraînement et l'évaluation de systèmes d'apprentissage par renforcement multi-agent coopératifs et compétitifs.
    0
    0
    Qu'est-ce que MultiAgentSystems ?
    MultiAgentSystems a été conçu pour simplifier le processus de construction et d’évaluation des applications d’apprentissage par renforcement multi-agent (MARL). La plateforme inclut des implémentations d’algorithmes de pointe tels que MADDPG, QMIX, VDN, ainsi que la formation centralisée avec une exécution décentralisée. Elle propose des wrappers d’environnement modulaires compatibles avec OpenAI Gym, des protocoles de communication pour l’interaction des agents et des utilitaires de journalisation pour suivre des métriques telles que la modulation des récompenses et les taux de convergence. Les chercheurs peuvent personnaliser l’architecture des agents, ajuster les hyperparamètres et simuler des scénarios comprenant la navigation coopérative, l’allocation de ressources et des jeux adverses. Avec un support intégré pour PyTorch, l’accélération GPU et l’intégration avec TensorBoard, MultiAgentSystems accélère l’expérimentation et la mise en place de benchmarks dans des domaines multi-agent collaboratifs et compétitifs.
  • Un cadre d'apprentissage par renforcement pour former des politiques de navigation multi-robot sans collision dans des environnements simulés.
    0
    0
    Qu'est-ce que NavGround Learning ?
    NavGround Learning fournit une boîte à outils complète pour le développement et la benchmarking d'agents d'apprentissage par renforcement dans les tâches de navigation. Elle supporte la simulation multi-agent, la modélisation des collisions ainsi que des capteurs et actionneurs personnalisables. Les utilisateurs peuvent choisir parmi des modèles de politiques prédéfinis ou implémenter leurs propres architectures, s'entraîner avec des algorithmes RL de pointe et visualiser les métriques de performance. Son intégration avec OpenAI Gym et Stable Baselines3 facilite la gestion des expériences, tandis que ses outils de journalisation et de visualisation intégrés permettent une analyse approfondie du comportement des agents et de la dynamique d'apprentissage.
  • OpenSpiel fournit une bibliothèque d'environnements et d'algorithmes pour la recherche en apprentissage par renforcement et en planification ludique.
    0
    0
    Qu'est-ce que OpenSpiel ?
    OpenSpiel est un cadre de recherche qui fournit une large gamme d'environnements (de jeux simples sur matrice à des jeux de plateau complexes comme Échecs, Go et Poker) et implémente divers algorithmes d'apprentissage par renforcement et de recherche (ex. itération de valeur, méthodes de gradient de politique, MCTS). Son noyau modulaire en C++ et ses liaisons Python permettent aux utilisateurs d'intégrer des algorithmes personnalisés, de définir de nouveaux jeux et de comparer les performances sur des benchmarks standards. Conçu pour l’extensibilité, il supporte des scénarios à un ou plusieurs agents, permettant d’étudier des stratégies coopératives et compétitives. Les chercheurs utilisent OpenSpiel pour prototyper rapidement des algorithmes, réaliser des expériences à grande échelle et partager du code reproductible.
  • Pits and Orbs offre un environnement de type grille multi-agents où les IA évitent les pièges, collectent des sphères et rivalisent dans des scénarios au tour par tour.
    0
    0
    Qu'est-ce que Pits and Orbs ?
    Pits and Orbs est un environnement open-source pour l’apprentissage par renforcement, implémenté en Python, offrant un monde de grille multi-agents au tour par tour où les agents poursuivent des objectifs et font face à des dangers environnementaux. Chaque agent doit naviguer sur une grille configurable, éviter des pièges placés aléatoirement qui pénalisent ou terminent les épisodes, et collecter des sphères pour des récompenses positives. L’environnement prend en charge des modes compétitifs et coopératifs, permettant aux chercheurs d’explorer divers scénarios d’apprentissage. Son API simple s’intègre parfaitement avec des bibliothèques RL populaires comme Stable Baselines ou RLlib. Les principales caractéristiques incluent des dimensions de grille ajustables, des distributions dynamiques de pièges et de sphères, des structures de récompense configurables, et un journalisation optionnelle pour l’analyse de l’entraînement.
  • Un framework Python permettant le développement et l'entraînement d'agents IA pour jouer aux combats Pokémon en utilisant l'apprentissage par reinforcement.
    0
    1
    Qu'est-ce que Poke-Env ?
    Poke-Env est conçu pour simplifier la création et l'évaluation d'agents IA pour les combats Pokémon Showdown en fournissant une interface Python complète. Il gère la communication avec le serveur Pokémon Showdown, analyse les données d'état du jeu et gère les actions tour par tour via une architecture événementielle. Les utilisateurs peuvent étendre les classes de base des joueurs pour implémenter des stratégies personnalisées utilisant l'apprentissage par reinforcement ou des algorithmes heuristiques. Le framework offre une prise en charge intégrée pour les simulations de combat, les affrontements parallèles et la journalisation détaillée des actions, récompenses et résultats pour une recherche reproductible. En abstraisant les tâches réseau et d'analyse de bas niveau, Poke-Env permet aux chercheurs et aux développeurs de se concentrer sur la conception d'algorithmes, l'optimisation des performances et le benchmarking comparatif des stratégies de combat.
  • PyBrain : Bibliothèque modulaire basée sur Python pour l'apprentissage automatique et les réseaux neuronaux.
    0
    0
    Qu'est-ce que pybrain.org ?
    PyBrain, abréviation de Python-Based Reinforcement Learning, Artificial Intelligence, and Neural Networks Library, est une bibliothèque modulaire et open-source conçue pour les tâches d'apprentissage automatique. Elle prend en charge la construction de réseaux neuronaux, l'apprentissage par renforcement et d'autres algorithmes d'IA. Grâce à ses algorithmes puissants et faciles à utiliser, PyBrain offre un outil précieux tant pour les développeurs que pour les chercheurs cherchant à résoudre divers problèmes d'apprentissage automatique. La bibliothèque s'intègre de manière fluide avec d'autres bibliothèques Python et convient à des tâches allant de l'apprentissage supervisé simple à des scénarios complexes d'apprentissage par renforcement.
Vedettes