초보자 친화적 plugin architecture 도구

간단한 설정과 쉬운 사용법을 제공하는 plugin architecture 도구로 시작부터 성공적인 작업을 만드세요.

plugin architecture

  • 내장된 계획, 기억 및 도구 통합이 포함된 GPT 기반 AI 에이전트를 가능하게 하는 경량 파이썬 프레임워크입니다.
    0
    0
    ggfai란?
    ggfai는 목표 정의, 다단계 추론 관리, 기억 모듈을 통한 대화 맥락 유지를 위한 통합 인터페이스를 제공합니다. 외부 서비스 또는 API 호출을 위한 사용자 지정 가능한 도구 통합, 비동기 실행 흐름, OpenAI GPT 모델에 대한 추상화를 지원합니다. 이 프레임워크의 플러그인 아키텍처를 사용하면 기억 백엔드, 지식 저장소, 액션 템플릿을 교체하여 고객 지원, 데이터 검색 또는 개인 비서와 같은 작업에서 에이전트 조정을 간소화할 수 있습니다.
  • GPA-LM은 작업을 분해하고 도구를 관리하며 다단계 언어 모델 워크플로를 조율하는 오픈소스 에이전트 프레임워크입니다.
    0
    0
    GPA-LM란?
    GPA-LM은 파이썬 기반 프레임워크로, 대형 언어 모델을 기반으로 하는 AI 에이전트의 생성과 조정을 쉽게 합니다. 상위 명령을 하위 태스크로 분해하는 플래너, 도구 호출과 상호작용을 관리하는 실행기, 세션 간 맥락을 유지하는 메모리 모듈이 포함되어 있습니다. 플러그인 아키텍처는 개발자가 커스텀 도구, API, 결정 논리를 추가할 수 있게 합니다. 다중 에이전트 지원으로 역할 조율, 작업 분산, 결과 집계가 가능합니다. OpenAI GPT 같은 인기 LLM과 원활하게 통합하며 다양한 환경에서 배포할 수 있습니다. 이 프레임워크는 연구, 자동화, 애플리케이션 프로토타이핑을 위한 자율 에이전트 개발을 가속화합니다.
  • CamelAGI는 메모리 기반의 자율형 에이전트를 구축하기 위한 모듈형 구성요소를 제공하는 오픈소스 AI 에이전트 프레임워크입니다.
    0
    0
    CamelAGI란?
    CamelAGI는 자율형 AI 에이전트 생성을 간소화하도록 설계된 오픈소스 프레임워크입니다. 맞춤형 도구용 플러그인 아키텍처, 컨텍스트 지속성을 위한 장기 기억 통합, GPT-4 및 Llama 2와 같은 다수의 대형 언어모델 지원을 특징으로 합니다. 명시적 계획 및 실행 모듈을 통해 에이전트는 작업을 분해하고, 외부 API를 호출하며, 시간에 따라 적응할 수 있습니다. CamelAGI의 확장성 및 커뮤니티 중심 접근 방식은 연구 프로토타입, 운영 시스템, 교육 프로젝트에 모두 적합합니다.
  • JARVIS-1은 작업을 자동화하고, 회의를 예약하며, 코드를 실행하고, 메모리를 유지하는 로컬 오픈소스 AI 에이전트입니다.
    0
    0
    JARVIS-1란?
    JARVIS-1은 자연어 인터페이스, 메모리 모듈, 플러그인 기반 작업 실행기를 결합한 모듈형 아키텍처를 제공합니다. GPT-index를 기반으로 하여, 대화를 유지하고 컨텍스트를 검색하며 사용자 인터랙션과 함께 발전합니다. 사용자들은 간단한 프롬프트로 작업을 정의하며, JARVIS-1은 작업 스케줄링, 코드 실행, 파일 조작, 웹 브라우징을 조율합니다. 플러그인 시스템은 데이터베이스, 이메일, PDF, 클라우드 서비스와의 맞춤 통합을 가능하게 합니다. Linux, macOS, Windows에서 Docker 또는 CLI로 배포 가능하며, 오프라인 동작과 데이터 제어를 보장하여 개발자, DevOps 팀 및 파워 유저에게 안전하고 확장 가능한 자동화 솔루션입니다.
  • kilobees는 모듈식 워크플로우에서 여러 AI 에이전트를 공동으로 생성, 조정, 관리하기 위한 Python 프레임워크입니다.
    0
    0
    kilobees란?
    kilobees는 복잡한 AI 워크플로우 개발을 간소화하는 Python 기반의 통합 다중 에이전트 오케스트레이션 플랫폼입니다. 개발자는 데이터 추출, 자연어 처리, API 통합 또는 의사 결정 로직과 같은 특수 역할을 하는 개별 에이전트를 정의할 수 있습니다. kilobees는 에이전트 간 메시징, 작업 큐, 오류 복구, 부하 분산을 자동으로 관리합니다. 플러그인 아키텍처는 맞춤형 프롬프트 템플릿, 성능 모니터링 대시보드, 데이터베이스, 웹 API, 클라우드 기능과 같은 외부 서비스와의 통합을 지원하며, 협력적 에이전트 상호작용, 병렬 실행, 모듈형 확장을 필요로 하는 정교한 AI 시스템의 프로토타이핑, 테스트, 배포를 가속화합니다.
  • LangGraph GUI의 시각적 그래프 기반 오케스트레이션 및 언어 모델 워크플로우 실행을 위한 FastAPI 백엔드를 제공합니다.
    0
    0
    LangGraph-GUI Backend란?
    LangGraph-GUI 백엔드는 LangGraph 그래픽 인터페이스를 지원하는 오픈소스 FastAPI 서비스입니다. 그래프의 노드와 엣지의 CRUD 작업을 처리하고, 다양한 언어 모델에 대한 워크플로우를 관리하며, 실시간 추론 결과를 반환합니다. 백엔드는 인증, 로깅, 커스텀 플러그인 확장성을 지원하여 사용자들이 시각적 프로그래밍 방식으로 복잡한 자연어 처리 워크플로우를 프로토타입, 테스트, 배포하며 실행 파이프라인에 대한 완전한 제어를 유지할 수 있도록 합니다.
  • LangGraph-MAS4SE는 코드 검토, 테스트, 문서화와 같은 소프트웨어 엔지니어링 작업을 자동화하고 최적화하기 위해 전문화된 LLM 기반 에이전트를 조정하는 프레임워크입니다.
    0
    0
    LangGraph-MAS4SE란?
    LangGraph-MAS4SE는 서로 다른 소프트웨어 엔지니어링 단계에 특화된 지능형 에이전트의 협력 생태계로 설계되었습니다. 핵심에는 작업 흐름을 조정하는 그래프 기반 메시지 버스가 있으며, 에이전트는 태스크별 데이터 노드에 게시하고 구독할 수 있습니다. 예를 들어, 코드 합성 에이전트는 초기 코드 초안을 생성하며, 이는 정적 분석 에이전트에 전달되어 품질 검사를 수행합니다. 문서 작성 에이전트는 분석된 모듈을 기반으로 사용자 설명서를 제작하고, 테스트 에이전트는 유닛 테스트를 자동 생성합니다. 이 시스템은 맞춤형 에이전트 개발을 위한 플러그인 인터페이스를 지원하며, 팀들이 도메인 특화 논리를 통합할 수 있게 합니다. 복잡한 의존성 관리 추상화와 LLM 기반 추론을 활용하여 LangGraph-MAS4SE는 개발 주기를 가속화하고, 수작업을 줄이며, 대규모 프로젝트 전반에 걸쳐 일관된 코드 품질을 보장합니다.
  • LlamaSim은 Llama 언어 모델 기반의 다중 에이전트 상호작용과 의사 결정을 시뮬레이션하는 파이썬 프레임워크입니다.
    0
    0
    LlamaSim란?
    실제 작업에서 LlamaSim은 Llama 모델을 사용하는 여러 AI 에이전트를 정의하고, 상호작용 시나리오를 설정하며, 제어된 시뮬레이션을 실행할 수 있게 해줍니다. 간단한 파이썬 API를 사용하여 에이전트의 성격, 의사결정 로직, 통신 채널을 사용자 정의할 수 있습니다. 프레임워크는 프롬프트 구성, 응답 분석, 대화 상태 추적을 자동으로 처리합니다. 모든 상호작용을 기록하며 응답 일관성, 작업 완료율, 지연 시간 등의 내장 평가 지표를 제공합니다. 플러그인 아키텍처를 통해 외부 데이터 소스와 통합하거나, 사용자 정의 평가 함수를 추가하거나, 에이전트 능력을 확장할 수 있습니다. LlamaSim의 가벼운 핵심은 로컬 개발, CI 파이프라인, 클라우드 배포에 적합하며, 재현 가능한 연구와 프로토타입 검증을 가능하게 합니다.
  • 자동 성능 비교를 위해 대형 언어 모델 간 토너먼트를 조율하는 오픈 소스 Python 프레임워크입니다.
    0
    0
    llm-tournament란?
    llm-tournament는 대규모 언어 모델을 벤치마킹할 수 있는 모듈형 확장 가능한 방법을 제공합니다. 사용자는 참가자(LLMs)를 정의하고, 토너먼트 브라켓을 구성하며, 프롬프트와 채점 로직을 지정하고, 자동 라운드를 실행합니다. 결과는 리더보드와 시각화에 집계되어 LLM 선택과 미세 조정 결정에 데이터를 활용할 수 있게 합니다. 이 프레임워크는 맞춤형 작업 정의, 평가 지표, 클라우드 또는 로컬 환경에서의 배치 실행을 지원합니다.
  • 커스텀 AI 에이전트를 위한 메시징 플랫폼과 대형 언어 모델을 통합하는 모듈화된 오픈소스 프레임워크입니다.
    0
    0
    LLM to MCP Integration Engine란?
    LLM to MCP 통합 엔진은 다양한 메시징 커뮤니케이션 플랫폼(MCP)과 대형 언어 모델(LLMs)을 통합하기 위해 설계된 오픈소스 프레임워크입니다. OpenAI, Anthropic과 같은 LLM API용 어댑터와 Slack, Discord, Telegram과 같은 채팅 플랫폼용 커넥터를 제공합니다. 엔진은 세션 상태를 관리하고, 컨텍스트를 풍부하게 하며, 양방향 메시지 라우팅을 수행합니다. 플러그인 기반 아키텍처를 통해 개발자는 새 제공자를 지원하거나 비즈니스 로직을 맞춤화할 수 있어 생산 환경에서 AI 에이전트 배포를 가속화합니다.
  • Magi MDA는 개발자가 맞춤 도구 통합으로 다단계 추론 파이프라인을 조정할 수 있는 오픈소스 AI 에이전트 프레임워크입니다.
    0
    0
    Magi MDA란?
    Magi MDA는 개발자 중심의 AI 에이전트 프레임워크로, 자율 에이전트의 생성과 배포를 간소화합니다. 핵심 구성요소인 플래너, 실행기, 인터프리터, 메모리를 노출하며, 이를 맞춤형 파이프라인으로 조립할 수 있습니다. 사용자들은 텍스트 생성을 위해 널리 사용되는 LLM 공급자와 연결하고, 지식 보강을 위한 검색 모듈을 추가하며, 특수 작업을 위한 임의의 도구 또는 API와 통합할 수 있습니다. 이 프레임워크는 단계별 추론, 도구 라우팅, 컨텍스트 관리를 자동으로 처리하여 팀이 오케스트레이션 보일러플레이트 대신 도메인 로직에 집중할 수 있게 합니다.
  • Matcha Agent는 개발자가 맞춤형 자율 에이전트와 통합된 도구를 구축할 수 있도록 하는 오픈 소스 AI 에이전트 프레임워크입니다.
    0
    0
    Matcha Agent란?
    Matcha Agent는 Python으로 자율 에이전트를 구축하기 위한 유연한 기반을 제공합니다. 개발자는 맞춤형 도구 세트(API, 스크립트, 데이터베이스)를 사용해 에이전트를 구성하고, 대화 메모리를 관리하며, 다양한 LLM(OpenAI, 로컬 모델 등) 간의 다중 단계 워크플로우를 조정할 수 있습니다. 플러그인 기반 아키텍처는 에이전트 행동을 쉽게 확장, 디버깅, 모니터링할 수 있게 합니다. 연구 과제 자동화, 데이터 분석, 고객 지원 등 다양한 분야에서 에이전트 개발과 배포를 간소화합니다.
  • Melissa는 메모리와 도구 통합이 가능한 맞춤형 대화형 에이전트를 구축하기 위한 오픈소스 모듈식 AI 에이전트 프레임워크입니다.
    0
    0
    Melissa란?
    Melissa는 광범위한 템플릿 코드 없이 AI 기반 에이전트를 구축할 수 있는 가볍고 확장 가능한 아키텍처를 제공합니다. 핵심적으로, 이 프레임워크는 개발자가 맞춤형 액션, 데이터 커넥터, 메모리 모듈을 등록할 수 있는 플러그인 기반 시스템에 의존합니다. 메모리 서브시스템은 상호작용 간 콘텍스트를 유지하여 대화의 연속성을 향상시킵니다. API, 데이터베이스 또는 로컬 파일에서 정보를 가져오고 처리할 수 있는 통합 어댑터도 갖추고 있습니다. 간단한 API, CLI 도구, 표준화된 인터페이스를 결합하여 Melissa는 고객 문의 자동화, 동적 보고서 생성, 다단계 워크플로우 조정과 같은 작업을 간소화합니다. 언어에 구애받지 않는 통합이 가능하여 파이썬 중심 프로젝트에 적합하며, Linux, macOS 또는 Docker 환경에 배포할 수 있습니다.
  • MiniAgent는 다단계 작업을 계획하고 실행하는 AI 에이전트를 구축하기 위한 오픈소스 경량 Python 프레임워크입니다.
    0
    0
    MiniAgent란?
    MiniAgent는 고급 목표를 순차적인 단계로 분해하는 작업 계획 모듈, 각 단계를 순차적으로 실행하는 실행 컨트롤러, 웹 서비스, 데이터베이스, 사용자 지정 스크립트 등을 포함한 외부 도구 및 API와 통합하기 위한 기본 제공 어댑터를 갖춘 Python 기반의 최소한의 오픈소스 프레임워크입니다. 이와 함께 대화 또는 작업 맥락을 지속시키는 가벼운 메모리 관리 시스템도 갖추고 있습니다. 개발자는 사용자 정의 액션 플러그인 등록, 정책 규칙 정의, 도구 기능 확장 등을 쉽게 수행할 수 있으며, OpenAI 모델이나 로컬 LLM 지원을 통해 챗봇, 디지털 워커, 자동화된 파이프라인의 신속한 프로토타입 제작이 가능합니다. 해당 프레임워크는 MIT 라이선스로 배포됩니다.
  • 역할 기반 의사소통을 통해 복잡한 작업을 공동으로 해결하는 다수의 AI 에이전트를 지원하는 오픈소스 Python 프레임워크입니다.
    0
    0
    Multi-Agent ColComp란?
    Multi-Agent ColComp는 복잡한 작업을 함께 수행하는 AI 에이전트 팀을 조정하는 확장 가능한 오픈소스 프레임워크입니다. 개발자는 서로 다른 에이전트 역할을 정의하고, 통신 채널을 구성하며, 통합된 메모리 저장소를 통해 컨텍스트 데이터를 공유할 수 있습니다. 이 라이브러리에는 협상, 조정, 합의 형성 플러그인 구성요소가 포함되어 있으며, 협력 텍스트 생성, 분산 계획, 다중 에이전트 시뮬레이션 등의 예제 시나리오가 제공됩니다. 모듈식 설계는 쉽게 확장 가능하며, 연구 또는 운영 환경에서 빠른 프로토타이핑과 평가를 지원합니다.
  • 적응형 실시간 음악 작품을 생성하고 연주하는 자율 음악 에이전트를 위한 오픈소스 프레임워크입니다.
    0
    0
    Musical-Agent-Systems란?
    Musical-Agent-Systems는 각 음악 에이전트가 행동 모델, 이벤트 스케줄러 및 신호 제어기를 캡슐화하는 모듈식 구조를 제공합니다. 사용자는 구성 파일 또는 코드를 통해 에이전트를 정의하며, 생성 알고리즘, 응답 트리거 및 앙상블 조정을 위한 통신 프로토콜을 지정합니다. 시스템은 효율적인 스케줄링을 통해 실시간 성능을 지원하며, 외부 입력 또는 다른 에이전트의 결과에 동적으로 적응할 수 있습니다. 패턴 생성, 기계 학습 기반 스타일 모델링, MIDI/OSC 통합을 위한 핵심 모듈을 포함합니다. 확장 가능한 플러그인 지원으로 개발자는 맞춤형 신호 엔진, 분석 도구 또는 AI 모델을 추가할 수 있습니다. 학술 연구, 인터랙티브 설치 및 라이브 알고리즘 퍼포먼스에 이상적이며, 이 프레임워크는 계산적 창의성과 실용적 음악 제작 워크플로를 연결합니다.
  • Nagato AI는 작업을 계획하고, 메모리를 관리하며, 외부 도구와 통합하는 오픈 소스 자율 AI 에이전트입니다.
    0
    0
    Nagato AI란?
    Nagato AI는 작업 계획, 메모리 관리, 도구 통합을 결합하여 자율 워크플로를 조정하는 확장 가능한 AI 에이전트 프레임워크입니다. 사용자 정의 도구와 API를 정의하여 정보 검색, 작업 수행, 긴 세션 동안의 대화 맥락 유지가 가능합니다. 플러그인 아키텍처와 대화형 UI를 통해 연구 지원, 데이터 분석, 개인 생산성 향상, 자동 고객 지원 등 다양한 시나리오에 적응하며, 완전한 오픈 소스이며 개발자 친화적입니다.
  • OmniMind0은 내장된 메모리 관리와 플러그인 통합 기능이 있는 자율적인 다중 에이전트 워크플로우를 가능하게 하는 오픈 소스 파이썬 프레임워크입니다.
    0
    0
    OmniMind0란?
    OmniMind0은 Python으로 작성된 포괄적 에이전트 기반 AI 프레임워크로서, 여러 자율 에이전트를 생성하고 오케스트레이션할 수 있습니다. 각 에이전트는 데이터 검색, 요약, 의사결정 등 특정 작업을 처리하도록 구성할 수 있으며, Redis 또는 JSON 파일과 같은 플러그형 메모리 백엔드를 통해 상태를 공유합니다. 내장 플러그인 아키텍처는 외부 API 또는 사용자 정의 명령어로 기능 확장을 허용하며, OpenAI, Azure, Hugging Face 모델을 지원하고, CLI, REST API 서버 또는 Docker를 통해 유연하게 워크플로우에 통합할 수 있습니다.
  • Julep AI Responses는 워크플로우와 함께 맞춤형 대화형 AI 에이전트를 구축, 구성, 배포할 수 있는 Node.js SDK입니다.
    0
    0
    Julep AI Responses란?
    Julep AI Responses는 Node.js SDK와 클라우드 플랫폼으로 제공되는 AI 에이전트 프레임워크입니다. 개발자는 Agent 객체를 초기화하고 사용자 지정 응답을 위한 onMessage 핸들러를 정의하며, 맥락 인식 대화를 위해 세션 상태를 관리하고 플러그인 또는 외부 API를 통합합니다. 이 플랫폼은 호스팅과 확장을 처리하여 챗봇, 고객 지원 에이전트 또는 내부 도우미를 최소한의 설정으로 빠르게 프로토타이핑하고 배포할 수 있도록 합니다.
  • 문서 수집, 벡터 검색, 채팅 기능이 포함된 검색 증강 생성 워크플로를 지원하는 OpenWebUI 플러그인.
    0
    0
    Open WebUI Pipeline for RAGFlow란?
    RAGFlow용 Open WebUI 파이프라인은 개발자와 데이터 과학자에게 검색 증강 생성(RAG) 애플리케이션 구축을 위한 모듈형 파이프라인을 제공합니다. 문서 업로드, 다양한 LLM API를 통한 임베딩 계산, 로컬 데이터베이스에 벡터 저장을 통해 효율적인 유사도 검색을 지원합니다. 프레임워크는 검색, 요약, 대화 흐름을 조율하며 외부 지식을 참조하는 실시간 채팅 인터페이스를 가능하게 합니다. 사용자 맞춤 프롬프트, 다중 모델 호환성, 메모리 관리 기능으로, 질문 답변 시스템, 문서 요약기, 개인 AI 비서 등을 인터랙티브 Web UI 환경 내에서 구축할 수 있습니다. 플러그인 구조는 Oobabooga와 같은 기존 로컬 WebUI와 원활하게 통합됩니다. 단계별 구성 파일과 일괄처리, 대화 맥락 추적, 유연한 검색 전략도 지원하며, 개발자는 벡터 저장소 선택, 프롬프트 체인 구성, 사용자 메모리 확장 모듈을 추가하여 연구, 고객 지원, 맞춤형 지식 서비스에 적합하게 만들 수 있습니다.
추천