고품질 local LLM 도구

고객 신뢰를 얻은 local LLM 도구로 안정적이고 우수한 결과를 경험하세요.

local LLM

  • 로컬 AI 에이전트 작업 흐름을 위해 Ollama LLM과 함께 사용자 프롬프트를 에코하고 처리하는 오픈소스 CLI 도구입니다.
    0
    0
    echoOLlama란?
    echoOLlama은 Ollama 생태계를 활용하여 최소한의 에이전트 프레임워크를 제공합니다. 터미널에서 사용자 입력을 읽고, 이를 구성된 로컬 LLM에 전송하며, 실시간으로 응답을 스트리밍합니다. 사용자는 상호작용 시퀀스를 스크립트화하고, 프롬프트를 연결하며, 기본 모델 코드를 수정하지 않고 프롬프트 엔지니어링을 실험할 수 있습니다. 이는 대화 패턴 테스트, 간단한 명령 기반 도구 구축, 반복적 에이전트 작업 처리에 이상적입니다.
  • 로컬에서 오픈 소스 모델을 실행하는 안전하고 개인적인 AI 어시스턴트.
    0
    0
    Sanctum AI란?
    Sanctum은 Mac 장치에서 법적인 기능을 갖춘 오픈 소스 대규모 언어 모델 (LLMs)을 로컬에서 실행하도록 설계된 최첨단 AI 어시스턴트 애플리케이션입니다. 사용자의 개인 정보 보호를 우선시하여 AES-256 암호화를 사용하여 데이터(채팅 기록 및 캐시 포함)를 보호하고 데이터가 장기를 떠나지 않도록 보장합니다. Sanctum은 사용자가 PDF 또는 DOCX와 같은 다양한 문서 형식을 가져오게 하며, 필요에 따라 질문하고 요약을 요청하면서 AI와 완전히 비공식적인 방식으로 상호작용할 수 있도록 합니다. 개인적 또는 전문적 용도로 안전하고 신뢰할 수 있는 AI 어시스턴트가 필요한 사람에게 적합합니다.
  • Ollama Bot은 로컬 Ollama LLM 모델을 사용하여 실시간 대화 응답과 프라이버시를 보호하는 디스코드 채팅 봇입니다.
    0
    0
    Ollama Bot란?
    Ollama Bot은 Node.js 기반의 AI 에이전트로서, Discord 서버에서 작동하며 Ollama CLI와 로컬 LLM 모델을 활용하여 대화형 응답을 생성합니다. 지속적인 채팅 컨텍스트를 구축하여 사용자가 여러 메시지에 걸쳐 주제 연속성을 유지할 수 있습니다. 관리자들은 커스텀 프롬프트를 정의하고, 모델 매개변수를 설정하며, 특정 역할에 명령을 제한할 수 있습니다. 이 봇은 여러 LLM 모델을 지원하고, 높은 처리량을 위해 메시지 큐를 자동으로 관리하며, 상호작용을 기록하여 감사를 지원합니다. 설치는 저장소를 클론하고, npm을 통해 의존성을 설치하며, 디스코드 토큰과 Ollama 설정 등 환경 변수를 구성하는 과정을 포함합니다. 배포 후, 봇은 슬래시 명령을 수신하고, 쿼리를 Ollama 모델에 전달하여 생성된 답변을 디스코드 채널에 바로 게시합니다.
추천