Herramientas local LLM sin costo

Accede a herramientas local LLM gratuitas y versátiles, ideales para tareas personales y profesionales.

local LLM

  • Una herramienta CLI de código abierto que refleja y procesa las solicitudes del usuario con Ollama LLMs para flujos de trabajo de agentes AI locales.
    0
    0
    ¿Qué es echoOLlama?
    echoOLlama aprovecha el ecosistema de Ollama para proporcionar un marco de agente mínimo: lee las entradas del usuario desde el terminal, las envía a un LLM local configurado y transmite las respuestas en tiempo real. Los usuarios pueden secuenciar interacciones, encadenar prompts y experimentar con ingeniería de prompts sin modificar el código del modelo subyacente. Esto hace que echoOLlama sea ideal para probar patrones conversacionales, construir herramientas sencillas por línea de comandos y manejar tareas iterativas de agentes, todo mientras se mantiene la privacidad de los datos.
  • Asistente AI seguro y privado que ejecuta modelos de código abierto localmente.
    0
    0
    ¿Qué es Sanctum AI?
    Sanctum es una aplicación de asistente AI de vanguardia diseñada para ejecutar modelos de lenguaje de gran tamaño (LLMs) de código abierto con todas las funciones localmente en su dispositivo Mac. Da prioridad a la privacidad del usuario al utilizar cifrado AES-256 para proteger datos, incluyendo el historial de chat y cachés, garantizando que no se transfiera ningún dato de su dispositivo. Sanctum permite a los usuarios importar varios formatos de documentos como PDFs y DOCX, lo que les permite hacer preguntas, obtener resúmenes e interactuar con la AI de una manera completamente privada. Es adecuado para cualquiera que necesite un asistente AI seguro y confiable para uso personal o profesional.
  • Ollama Bot es un bot de chat en Discord que utiliza modelos LLM locales de Ollama para generar respuestas conversacionales en tiempo real con privacidad.
    0
    0
    ¿Qué es Ollama Bot?
    Ollama Bot es un agente de IA basado en Node.js diseñado para funcionar en servidores de Discord, aprovechando la CLI de Ollama y modelos LLM locales para generar respuestas conversacionales. Establece un contexto de chat persistente, permitiendo a los usuarios mantener la continuidad del tema en múltiples mensajes. Los administradores pueden definir instrucciones personalizadas, establecer parámetros del modelo y restringir comandos a roles específicos. El bot soporta múltiples modelos LLM, gestiona automáticamente las colas de mensajes para alto rendimiento y registra las interacciones para auditoría. La instalación implica clonar el repositorio, instalar dependencias vía npm y configurar variables de entorno como el token del bot de Discord y configuraciones de Ollama. Una vez desplegado, el bot escucha comandos slash, envía consultas al modelo de Ollama y publica respuestas generadas directamente en los canales de Discord.
Destacados