Herramientas 로컬 LLM sin costo

Accede a herramientas 로컬 LLM gratuitas y versátiles, ideales para tareas personales y profesionales.

로컬 LLM

  • Asistente AI seguro y privado que ejecuta modelos de código abierto localmente.
    0
    0
    ¿Qué es Sanctum AI?
    Sanctum es una aplicación de asistente AI de vanguardia diseñada para ejecutar modelos de lenguaje de gran tamaño (LLMs) de código abierto con todas las funciones localmente en su dispositivo Mac. Da prioridad a la privacidad del usuario al utilizar cifrado AES-256 para proteger datos, incluyendo el historial de chat y cachés, garantizando que no se transfiera ningún dato de su dispositivo. Sanctum permite a los usuarios importar varios formatos de documentos como PDFs y DOCX, lo que les permite hacer preguntas, obtener resúmenes e interactuar con la AI de una manera completamente privada. Es adecuado para cualquiera que necesite un asistente AI seguro y confiable para uso personal o profesional.
  • El plugin GAMA Genstar integra modelos de IA generativa en simulaciones GAMA para la generación automática de comportamientos de agentes y escenarios.
    0
    0
    ¿Qué es GAMA Genstar Plugin?
    El plugin GAMA Genstar añade capacidades de IA generativa a la plataforma GAMA proporcionando conectores a OpenAI, LLMs locales y endpoints de modelos personalizados. Los usuarios definen prompts y pipelines en GAML para generar decisiones de agentes, descripciones de entornos o parámetros de escenarios al vuelo. El plugin soporta llamadas API síncronas y asíncronas, almacenamiento en caché de respuestas y ajuste de parámetros. Facilita la integración de modelos de lenguaje natural en simulaciones a gran escala, reduciendo la escritura manual y fomentando comportamientos de agentes más ricos y adaptativos.
  • Ollama Bot es un bot de chat en Discord que utiliza modelos LLM locales de Ollama para generar respuestas conversacionales en tiempo real con privacidad.
    0
    0
    ¿Qué es Ollama Bot?
    Ollama Bot es un agente de IA basado en Node.js diseñado para funcionar en servidores de Discord, aprovechando la CLI de Ollama y modelos LLM locales para generar respuestas conversacionales. Establece un contexto de chat persistente, permitiendo a los usuarios mantener la continuidad del tema en múltiples mensajes. Los administradores pueden definir instrucciones personalizadas, establecer parámetros del modelo y restringir comandos a roles específicos. El bot soporta múltiples modelos LLM, gestiona automáticamente las colas de mensajes para alto rendimiento y registra las interacciones para auditoría. La instalación implica clonar el repositorio, instalar dependencias vía npm y configurar variables de entorno como el token del bot de Discord y configuraciones de Ollama. Una vez desplegado, el bot escucha comandos slash, envía consultas al modelo de Ollama y publica respuestas generadas directamente en los canales de Discord.
  • Una herramienta CLI de código abierto que refleja y procesa las solicitudes del usuario con Ollama LLMs para flujos de trabajo de agentes AI locales.
    0
    0
    ¿Qué es echoOLlama?
    echoOLlama aprovecha el ecosistema de Ollama para proporcionar un marco de agente mínimo: lee las entradas del usuario desde el terminal, las envía a un LLM local configurado y transmite las respuestas en tiempo real. Los usuarios pueden secuenciar interacciones, encadenar prompts y experimentar con ingeniería de prompts sin modificar el código del modelo subyacente. Esto hace que echoOLlama sea ideal para probar patrones conversacionales, construir herramientas sencillas por línea de comandos y manejar tareas iterativas de agentes, todo mientras se mantiene la privacidad de los datos.
Destacados