Innovations en outils local LLM

Découvrez des solutions local LLM révolutionnaires qui transforment votre manière de travailler au quotidien.

local LLM

  • Un outil CLI open-source qui répète et traite les invites utilisateur avec Ollama LLMs pour les flux de travail d'agents IA locaux.
    0
    0
    Qu'est-ce que echoOLlama ?
    echoOLlama exploite l'écosystème Ollama pour fournir un cadre d'agent minimal : il lit l'entrée utilisateur du terminal, l'envoie à un LLM local configuré, et diffuse les réponses en temps réel. Les utilisateurs peuvent script des séquences d'interactions, enchaîner des prompts, et expérimenter l'ingénierie des prompts sans modifier le code modèle sous-jacent. Cela rend echoOLlama idéal pour tester des schémas de conversation, construire des outils simples en ligne de commande, et gérer des tâches itératives tout en préservant la confidentialité des données.
  • Assistant AI sécurisé et privé exécutant des modèles open-source localement.
    0
    0
    Qu'est-ce que Sanctum AI ?
    Sanctum est une application d'assistant AI à la pointe de la technologie conçue pour exécuter localement sur votre appareil Mac des modèles de langage à grande échelle (LLMs) open-source entièrement fonctionnels. Il donne la priorité à la confidentialité de l'utilisateur en utilisant un cryptage AES-256 pour sécuriser les données, y compris l'historique des discussions et les caches, garantissant qu'aucune donnée ne quitte votre appareil. Sanctum permet aux utilisateurs d'importer divers formats de documents tels que des PDF et des DOCX, leur permettant de poser des questions, d'obtenir des résumés et d'interagir avec l'AI de manière entièrement privée. Il est adapté à toute personne ayant besoin d'un assistant AI sécurisé et fiable pour un usage personnel ou professionnel.
  • Ollama Bot est un chat-bot Discord utilisant des modèles LLM locaux Ollama pour générer des réponses conversationnelles en temps réel avec confidentialité.
    0
    0
    Qu'est-ce que Ollama Bot ?
    Ollama Bot est un agent AI basé sur Node.js conçu pour fonctionner sur les serveurs Discord, utilisant la CLI Ollama et des modèles LLM locaux pour générer des réponses conversationnelles. Il établit un contexte de chat persistant, permettant aux utilisateurs de maintenir la continuité du sujet sur plusieurs messages. Les administrateurs peuvent définir des invites personnalisées, régler les paramètres du modèle et restreindre les commandes à des rôles spécifiques. Le bot supporte plusieurs modèles LLM, gère automatiquement les files d’attente de messages pour un débit élevé et enregistre les interactions à des fins d'audit. L'installation consiste à cloner le dépôt, installer les dépendances via npm et configurer des variables d'environnement telles que le jeton Discord et les paramètres d'Ollama. Une fois déployé, le bot écoute les commandes slash, transfère les requêtes au modèle Ollama et publie directement les réponses générées dans les canaux Discord.
Vedettes