Un plugin ChatChat utilisant LangGraph pour fournir une mémoire conversationnelle en structure de graphe et une récupération contextuelle pour les agents IA.
LangGraph-Chatchat fonctionne comme un plugin de gestion de mémoire pour le framework conversationnel ChatChat, utilisant le modèle de base de données graphe de LangGraph pour stocker et récupérer le contexte de la conversation. Pendant l'exécution, les entrées utilisateur et les réponses de l'agent sont converties en nœuds sémantiques avec des relations, formant un graphe de connaissances complet. Cette structure permet des requêtes efficaces des interactions passées basées sur des métriques de similarité, des mots-clés ou des filtres personnalisés. Le plugin supporte la configuration de la persistance de mémoire, la fusion de nœuds et les politiques TTL, garantissant une conservation du contexte pertinent sans surcharge. Avec des sérialisateurs et des adaptateurs intégrés, LangGraph-Chatchat s’intègre parfaitement dans des déploiements ChatChat, offrant aux développeurs une solution robuste pour construire des agents IA capables de maintenir une mémoire à long terme, d’améliorer la pertinence des réponses et de gérer des flux de dialogue complexes.
Une plateforme open-source permettant la génération assistée par récupération pour des agents conversationnels en combinant LLMs, bases de données vectorielles et pipelines personnalisables.
Le système RAG piloté par LLM est un framework destiné aux développeurs pour la construction de pipelines RAG. Il fournit des modules pour l’intégration de collections de documents, l’indexation via FAISS, Pinecone ou Weaviate, et la récupération de contexte pertinent en temps réel. Le système utilise des wrappers LangChain pour orchestrer les appels LLM, supporte les modèles de prompt, la diffusion de réponses, et les adaptateurs multi-vecteurs. Il simplifie le déploiement de RAG de bout en bout pour des bases de connaissances, avec une personnalisation à chaque étape — de la configuration du modèle d’intégration à la conception du prompt et au post-traitement des résultats.
Fonctionnalités principales de LLM-Powered RAG System
RAGApp simplifie la création de chatbots avec récupération en intégrant les bases de données vectorielles, les LLMs et les chaînes d'outils dans un cadre low-code.
RAGApp est conçu pour simplifier toute la pipeline RAG en fournissant des intégrations clés en main avec des bases de données vectorielles populaires (FAISS, Pinecone, Chroma, Qdrant) et de grands modèles de langage (OpenAI, Anthropic, Hugging Face). Il inclut des outils d'ingestion de données pour convertir des documents en embeddings, des mécanismes de récupération contextuelle pour une sélection précise des connaissances, et un UI de chat intégré ou un serveur API REST pour le déploiement. Les développeurs peuvent facilement étendre ou remplacer n'importe quel composant — ajouter des préprocesseurs personnalisés, intégrer des API externes en tant qu'outils, ou changer de fournisseur de LLM — tout en utilisant Docker et les outils CLI pour un prototypage rapide et le déploiement en production.