Herramientas 本地LLM sin costo

Accede a herramientas 本地LLM gratuitas y versátiles, ideales para tareas personales y profesionales.

本地LLM

  • Una herramienta CLI de código abierto que refleja y procesa las solicitudes del usuario con Ollama LLMs para flujos de trabajo de agentes AI locales.
    0
    0
    ¿Qué es echoOLlama?
    echoOLlama aprovecha el ecosistema de Ollama para proporcionar un marco de agente mínimo: lee las entradas del usuario desde el terminal, las envía a un LLM local configurado y transmite las respuestas en tiempo real. Los usuarios pueden secuenciar interacciones, encadenar prompts y experimentar con ingeniería de prompts sin modificar el código del modelo subyacente. Esto hace que echoOLlama sea ideal para probar patrones conversacionales, construir herramientas sencillas por línea de comandos y manejar tareas iterativas de agentes, todo mientras se mantiene la privacidad de los datos.
  • El plugin GAMA Genstar integra modelos de IA generativa en simulaciones GAMA para la generación automática de comportamientos de agentes y escenarios.
    0
    0
    ¿Qué es GAMA Genstar Plugin?
    El plugin GAMA Genstar añade capacidades de IA generativa a la plataforma GAMA proporcionando conectores a OpenAI, LLMs locales y endpoints de modelos personalizados. Los usuarios definen prompts y pipelines en GAML para generar decisiones de agentes, descripciones de entornos o parámetros de escenarios al vuelo. El plugin soporta llamadas API síncronas y asíncronas, almacenamiento en caché de respuestas y ajuste de parámetros. Facilita la integración de modelos de lenguaje natural en simulaciones a gran escala, reduciendo la escritura manual y fomentando comportamientos de agentes más ricos y adaptativos.
  • Ollama Bot es un bot de chat en Discord que utiliza modelos LLM locales de Ollama para generar respuestas conversacionales en tiempo real con privacidad.
    0
    0
    ¿Qué es Ollama Bot?
    Ollama Bot es un agente de IA basado en Node.js diseñado para funcionar en servidores de Discord, aprovechando la CLI de Ollama y modelos LLM locales para generar respuestas conversacionales. Establece un contexto de chat persistente, permitiendo a los usuarios mantener la continuidad del tema en múltiples mensajes. Los administradores pueden definir instrucciones personalizadas, establecer parámetros del modelo y restringir comandos a roles específicos. El bot soporta múltiples modelos LLM, gestiona automáticamente las colas de mensajes para alto rendimiento y registra las interacciones para auditoría. La instalación implica clonar el repositorio, instalar dependencias vía npm y configurar variables de entorno como el token del bot de Discord y configuraciones de Ollama. Una vez desplegado, el bot escucha comandos slash, envía consultas al modelo de Ollama y publica respuestas generadas directamente en los canales de Discord.
  • Pieces es una herramienta de productividad habilitada por IA que se integra con tus herramientas favoritas para mejorar los flujos de trabajo de codificación.
    0
    0
    ¿Qué es Pieces for Developers?
    Pieces es una herramienta de productividad impulsada por IA adaptada para desarrolladores. Ayuda a gestionar el caos de los flujos de trabajo de desarrollo proporcionando gestión inteligente de fragmentos de código, interacciones contextualizadas con copilotos y presentación proactiva de materiales útiles. Al integrarse sin problemas con herramientas populares y utilizar LLM locales y en la nube, Pieces mejora la productividad, elimina el cambio de contexto y garantiza el almacenamiento seguro y la enriquecimiento de recursos críticos. Su objetivo es reinventar las bases de la productividad y amplificar la sinergia del equipo, mientras mantiene a los desarrolladores en flujo con LLM en el dispositivo y un Motor de Patrones de Flujo de Trabajo.
Destacados