rag-services fornece uma coleção de microsserviços RESTful containerizados projetados para simplificar aplicações de geração aprimorada por recuperação (RAG). Inclui componentes modulares para armazenamento de documentos, indexação vetorial, geração de embeddings, inferência de LLM e orquestração. Os desenvolvedores podem conectar bancos de dados vetoriais populares e provedores de modelos de linguagem, criando pipelines RAG altamente personalizáveis e escaláveis. Totalmente de código aberto, rag-services simplifica a implantação e gestão de assistentes de IA em ambientes de produção nativos na nuvem.
rag-services fornece uma coleção de microsserviços RESTful containerizados projetados para simplificar aplicações de geração aprimorada por recuperação (RAG). Inclui componentes modulares para armazenamento de documentos, indexação vetorial, geração de embeddings, inferência de LLM e orquestração. Os desenvolvedores podem conectar bancos de dados vetoriais populares e provedores de modelos de linguagem, criando pipelines RAG altamente personalizáveis e escaláveis. Totalmente de código aberto, rag-services simplifica a implantação e gestão de assistentes de IA em ambientes de produção nativos na nuvem.
rag-services é uma plataforma extensível que divide pipelines RAG em microsserviços discretos. Oferece um serviço de armazenamento de documentos, um serviço de índice vetorial, um serviço de embedder, múltiplos serviços de inferência de LLM e um serviço de orquestração para coordenar fluxos de trabalho. Cada componente expõe APIs REST, permitindo combinar bancos de dados e provedores de modelos. Com suporte a Docker e Docker Compose, pode ser implantado localmente ou em clusters Kubernetes. A estrutura permite soluções RAG escaláveis e tolerantes a falhas para chatbots, bases de conhecimento e respostas automáticas a documentos.
Quem usará rag-services?
Engenheiros de AI/ML
Desenvolvedores Backend
Cientistas de Dados
Empresas construindo aplicações RAG
Como usar rag-services?
Etapa 1: Clone o repositório do GitHub.
Etapa 2: Copie e personalize a configuração .env para os endpoints do DB vetorial e LLM.
Etapa 3: Construa e inicie todos os serviços via Docker Compose.
Etapa 4: Ingestione documentos através da API de armazenamento de documentos e gere embeddings.
Etapa 5: Envie consultas de usuários ao endpoint do orquestrador para respostas habilitadas por RAG.
Plataforma
mac
windows
linux
Características e Benefícios Principais de rag-services
Principais recursos
Serviço de armazenamento de documentos
Indexação e busca vetorial
Geração de embeddings
Múltiplos endpoints de inferência de LLM
API de orquestração de fluxo de trabalho
Os benefícios
Arquitetura modular de microsserviços
Escalável e tolerante a falhas
Integração flexível com diversos bancos de dados e LLMs
Implantação nativa na nuvem com Docker
Totalmente de código aberto e extensível
Principais Casos de Uso & Aplicações de rag-services
Uma solução para construir agentes de IA personalizáveis com LangChain na AWS Bedrock, aproveitando modelos de introdução e ferramentas personalizadas.
Uma ferramenta de IA que usa embeddings do Anthropic Claude via CrewAI para encontrar e classificar empresas semelhantes com base em listas de entrada.