Outils lokales LLM simples et intuitifs

Explorez des solutions lokales LLM conviviales, conçues pour simplifier vos projets et améliorer vos performances.

lokales LLM

  • Un outil CLI open-source qui répète et traite les invites utilisateur avec Ollama LLMs pour les flux de travail d'agents IA locaux.
    0
    0
    Qu'est-ce que echoOLlama ?
    echoOLlama exploite l'écosystème Ollama pour fournir un cadre d'agent minimal : il lit l'entrée utilisateur du terminal, l'envoie à un LLM local configuré, et diffuse les réponses en temps réel. Les utilisateurs peuvent script des séquences d'interactions, enchaîner des prompts, et expérimenter l'ingénierie des prompts sans modifier le code modèle sous-jacent. Cela rend echoOLlama idéal pour tester des schémas de conversation, construire des outils simples en ligne de commande, et gérer des tâches itératives tout en préservant la confidentialité des données.
    Fonctionnalités principales de echoOLlama
    • Répétition de prompts via CLI
    • Streaming des réponses LLM
    • Chaînage d'interactions multi-étapes
    • Intégration du modèle local via Ollama
  • Ollama Bot est un chat-bot Discord utilisant des modèles LLM locaux Ollama pour générer des réponses conversationnelles en temps réel avec confidentialité.
    0
    0
    Qu'est-ce que Ollama Bot ?
    Ollama Bot est un agent AI basé sur Node.js conçu pour fonctionner sur les serveurs Discord, utilisant la CLI Ollama et des modèles LLM locaux pour générer des réponses conversationnelles. Il établit un contexte de chat persistant, permettant aux utilisateurs de maintenir la continuité du sujet sur plusieurs messages. Les administrateurs peuvent définir des invites personnalisées, régler les paramètres du modèle et restreindre les commandes à des rôles spécifiques. Le bot supporte plusieurs modèles LLM, gère automatiquement les files d’attente de messages pour un débit élevé et enregistre les interactions à des fins d'audit. L'installation consiste à cloner le dépôt, installer les dépendances via npm et configurer des variables d'environnement telles que le jeton Discord et les paramètres d'Ollama. Une fois déployé, le bot écoute les commandes slash, transfère les requêtes au modèle Ollama et publie directement les réponses générées dans les canaux Discord.
Vedettes