Ncurator est une extension de navigateur alimentée par l'IA conçue pour vous aider à gérer et organiser vos connaissances. En s'intégrant à plusieurs plateformes comme Notion, Gmail et Google Drive, il effectue des tâches telles que l'importation de fichiers PDF, l'exploration de pages Web et l'activation de recherches sémantiques. Avec ses capacités hors ligne et son accent sur la sécurité des données, Ncurator garantit que toutes vos informations sont stockées localement, offrant une manière sécurisée et efficace de gérer vos documents et votre base de connaissances.
Fonctionnalités principales de Ncurator
Importer des PDF et des DOCX
Exploration de pages Web
Importation de signets du navigateur
Recherche sémantique
Analyse de documents par IA
Q&R sur la page Web actuelle
Connexion à Notion, Gmail, Google Drive
Avantages et inconvénients de Ncurator
Inconvénients
Nécessite un minimum de 8 Go (Cloud LLM) ou 16 Go (Local LLM) de mémoire, ce qui peut être lourd pour certains utilisateurs.
Problèmes de compatibilité avec certains navigateurs, comme l'absence de prise en charge de WebGPU.
Limité à une utilisation dans les navigateurs pris en charge via une extension.
Avantages
Les données sont stockées localement sur l'appareil de l'utilisateur, garantissant la confidentialité et la sécurité.
Prend en charge l'utilisation hors ligne avec des modèles de langue locaux pour la gestion des connaissances assistée par IA.
Installation facile sans configuration complexe.
Import illimité de documents selon les capacités de l'ordinateur.
Améliore la recherche de connaissances avec la technologie de recherche sémantique et par mots-clés.
rag-services est un cadre de microservices open-source permettant des pipelines de génération augmentée par récupération évolutives avec stockage vectoriel, inférence LLM et orchestration.
rag-services est une plateforme extensible qui décompose les pipelines RAG en microservices discrets. Elle offre un service de stockage de documents, un service d'indexation vectorielle, un service d'embedding, plusieurs services d'inférence LLM et un orchestrateur pour coordonner les flux de travail. Chaque composant expose des API REST, vous permettant de mélanger et d'associer bases de données et fournisseurs de modèles. Avec la prise en charge de Docker et Docker Compose, vous pouvez déployer localement ou dans des clusters Kubernetes. Le cadre permet des solutions RAG évolutives et tolérantes aux pannes pour chatbots, bases de connaissances et Q&A automatiques.