Marco de Python de código abierto que permite a agentes de IA autónomos planificar, ejecutar y aprender tareas mediante integración de LLM y memoria persistente.
AI-Agents proporciona una plataforma flexible y modular para crear agentes impulsados por IA autónomos. Los desarrolladores pueden definir objetivos de agentes, encadenar tareas e incorporar módulos de memoria para almacenar y recuperar información contextual a través de sesiones. El marco soporta integración con los principales LLM mediante claves API, permitiendo a los agentes generar, evaluar y revisar salidas. La compatibilidad con herramientas y plugins personalizables permite a los agentes interactuar con servicios externos como scraping web, consultas a bases de datos y herramientas de informes. A través de abstracciones claras para planificación, ejecución y bucles de retroalimentación, AI-Agents acelera la creación de prototipos y el despliegue de flujos de trabajo automatizados inteligentes.
Características principales de AI-Agents
Integración LLM con OpenAI y otros proveedores
Motor de planificación y ejecución autónoma de tareas
Almacenamiento de memoria persistente entre sesiones
Sistema de plugins modular para herramientas y API
AtomicAgent es una biblioteca de Node.js para construir agentes de IA modulares que orquestan llamadas a LLM y herramientas externas para flujos de trabajo automatizados.
AtomicAgent proporciona un marco estructurado para definir, componer y ejecutar tareas de agentes de IA. Los módulos principales incluyen un registro de herramientas para registrar e invocar servicios externos, un gestor de memoria para persistir el contexto conversacional o de tarea, y un motor de orquestación que dirige las interacciones con LLM paso a paso. Los desarrolladores pueden definir herramientas reutilizables, configurar lógica de decisión y aprovechar la ejecución asíncrona para tareas de larga duración. El diseño modular de AtomicAgent fomenta el mantenimiento, la testabilidad y una rápida iteración de flujos de trabajo complejos impulsados por IA, desde chatbots hasta pipelines de procesamiento de datos.
Un cliente de línea de comandos para interactuar con modelos LLM de Ollama localmente, que permite chats multiturno, salidas en streaming y gestión de prompts.
MCP-Ollama-Client proporciona una interfaz unificada para comunicarse con los modelos de lenguaje de Ollama que se ejecutan localmente. Soporta diálogos duplex completos con seguimiento automático del historial, streaming en vivo de tokens de finalización y plantillas de prompts dinámicos. Los desarrolladores pueden escoger entre modelos instalados, personalizar hiperparámetros como temperatura y tokens máximos, y monitorear métricas de uso directamente en la terminal. El cliente expone una envoltura API simple de estilo REST para integración en scripts de automatización o aplicaciones locales. Con reportes de errores integrados y gestión de configuraciones, facilita el desarrollo y la prueba de flujos de trabajo alimentados por LLM sin depender de APIs externas.