Herramientas lokales LLM de alto rendimiento

Accede a soluciones lokales LLM que te ayudarán a completar tareas complejas con facilidad.

lokales LLM

  • Una herramienta CLI de código abierto que refleja y procesa las solicitudes del usuario con Ollama LLMs para flujos de trabajo de agentes AI locales.
    0
    0
    ¿Qué es echoOLlama?
    echoOLlama aprovecha el ecosistema de Ollama para proporcionar un marco de agente mínimo: lee las entradas del usuario desde el terminal, las envía a un LLM local configurado y transmite las respuestas en tiempo real. Los usuarios pueden secuenciar interacciones, encadenar prompts y experimentar con ingeniería de prompts sin modificar el código del modelo subyacente. Esto hace que echoOLlama sea ideal para probar patrones conversacionales, construir herramientas sencillas por línea de comandos y manejar tareas iterativas de agentes, todo mientras se mantiene la privacidad de los datos.
    Características principales de echoOLlama
    • Repetición de prompts vía CLI
    • Transmisión de respuestas LLM
    • Encadenamiento de interacciones multi-etapa
    • Integración del modelo local vía Ollama
  • Ollama Bot es un bot de chat en Discord que utiliza modelos LLM locales de Ollama para generar respuestas conversacionales en tiempo real con privacidad.
    0
    0
    ¿Qué es Ollama Bot?
    Ollama Bot es un agente de IA basado en Node.js diseñado para funcionar en servidores de Discord, aprovechando la CLI de Ollama y modelos LLM locales para generar respuestas conversacionales. Establece un contexto de chat persistente, permitiendo a los usuarios mantener la continuidad del tema en múltiples mensajes. Los administradores pueden definir instrucciones personalizadas, establecer parámetros del modelo y restringir comandos a roles específicos. El bot soporta múltiples modelos LLM, gestiona automáticamente las colas de mensajes para alto rendimiento y registra las interacciones para auditoría. La instalación implica clonar el repositorio, instalar dependencias vía npm y configurar variables de entorno como el token del bot de Discord y configuraciones de Ollama. Una vez desplegado, el bot escucha comandos slash, envía consultas al modelo de Ollama y publica respuestas generadas directamente en los canales de Discord.
Destacados