Outils метрики обучения simples et intuitifs

Explorez des solutions метрики обучения conviviales, conçues pour simplifier vos projets et améliorer vos performances.

метрики обучения

  • Jason-RL équipe les agents Jason BDI avec l'apprentissage par renforcement, permettant une prise de décision adaptative basée sur Q-learning et SARSA via l'expérience de récompense.
    0
    0
    Qu'est-ce que jason-RL ?
    Jason-RL ajoute une couche d'apprentissage par renforcement au cadre multi-agent Jason, permettant aux agents AgentSpeak BDI d'apprendre des politiques de sélection d'actions via le feedback de récompense. Elle met en œuvre les algorithmes Q-learning et SARSA, supporte la configuration des paramètres d'apprentissage (taux d'apprentissage, facteur d'actualisation, stratégie d'exploration) et enregistre les métriques d'entraînement. En définissant des fonctions de récompense dans les plans d'agents et en exécutant des simulations, les développeurs peuvent observer l'amélioration des prises de décision des agents au fil du temps, s'adaptant à des environnements changeants sans coder manuellement les politiques.
    Fonctionnalités principales de jason-RL
    • Intégration du Q-learning
    • Intégration du SARSA
    • Paramètres d'apprentissage configurables
    • Prise en charge des fonctions de récompense
    • Journalisation des métriques d'entraînement
  • MADDPG évolutif est un cadre d'apprentissage par renforcement multi-agent open-source implémentant la politique déterministe profonde pour plusieurs agents.
    0
    0
    Qu'est-ce que Scalable MADDPG ?
    MADDPG évolutif est un cadre orienté recherche pour l'apprentissage par renforcement multi-agent, offrant une implémentation évolutive de l'algorithme MADDPG. Il comprend des critiques centralisés lors de l'entraînement et des acteurs indépendants à l'exécution pour la stabilité et l'efficacité. La bibliothèque comprend des scripts Python pour définir des environnements personnalisés, configurer des architectures réseau et ajuster des hyperparamètres. Les utilisateurs peuvent entraîner plusieurs agents en parallèle, surveiller les métriques et visualiser les courbes d'apprentissage. Il s'intègre à des environnements similaires à OpenAI Gym et supporte l'accélération GPU via TensorFlow. Grâce à ses composants modulaires, MADDPG évolutif permet une expérimentation flexible sur des tâches multi-agents coopératives, compétitives ou mixtes, facilitant la prototypage rapide et le benchmarking.
Vedettes