Outils 開源機器人 simples et intuitifs

Explorez des solutions 開源機器人 conviviales, conçues pour simplifier vos projets et améliorer vos performances.

開源機器人

  • Un cadre robotique multi-agent basé sur Python qui facilite la coordination autonome, la planification de trajectoires et l'exécution collaborative des tâches au sein des équipes de robots.
    0
    0
    Qu'est-ce que Multi Agent Robotic System ?
    Le projet Multi Agent Robotic System offre une plateforme modulaire basée sur Python pour développer, simuler et déployer des équipes robotiques coopératives. Il implémente principalement des stratégies de contrôle décentralisé permettant aux robots de partager des informations d'état et de répartir collaborativement les tâches sans coordinateur central. Le système comprend des modules intégrés pour la planification de trajectoires, la prévention des collisions, la cartographie de l'environnement et la planification dynamique des tâches. Les développeurs peuvent intégrer de nouveaux algorithmes en étendant les interfaces fournies, ajuster les protocoles de communication via des fichiers de configuration et visualiser les interactions entre robots dans des environnements simulés. Compatible avec ROS, il supporte la transition transparente de la simulation au matériel réel. Ce cadre accélère la recherche en fournissant des composants réutilisables pour le comportement en essaim, l'exploration collaborative et les expériences d'automatisation d'entrepôt.
    Fonctionnalités principales de Multi Agent Robotic System
    • Communication décentralisée multi-agent
    • Attribution dynamique des tâches
    • Planification de trajectoires en temps réel
    • Prévention des collisions
    • Architecture modulaire
  • Ollama Bot est un chat-bot Discord utilisant des modèles LLM locaux Ollama pour générer des réponses conversationnelles en temps réel avec confidentialité.
    0
    0
    Qu'est-ce que Ollama Bot ?
    Ollama Bot est un agent AI basé sur Node.js conçu pour fonctionner sur les serveurs Discord, utilisant la CLI Ollama et des modèles LLM locaux pour générer des réponses conversationnelles. Il établit un contexte de chat persistant, permettant aux utilisateurs de maintenir la continuité du sujet sur plusieurs messages. Les administrateurs peuvent définir des invites personnalisées, régler les paramètres du modèle et restreindre les commandes à des rôles spécifiques. Le bot supporte plusieurs modèles LLM, gère automatiquement les files d’attente de messages pour un débit élevé et enregistre les interactions à des fins d'audit. L'installation consiste à cloner le dépôt, installer les dépendances via npm et configurer des variables d'environnement telles que le jeton Discord et les paramètres d'Ollama. Une fois déployé, le bot écoute les commandes slash, transfère les requêtes au modèle Ollama et publie directement les réponses générées dans les canaux Discord.
Vedettes