L'agent e-mail LLaMA local se connecte à votre boîte aux lettres (API Gmail ou mbox), ingère les messages entrants, et crée un contexte local avec des embeddings vectoriels. Il analyse les threads, génère des résumés concis, et rédige des suggestions de réponse adaptées à chaque conversation. Vous pouvez personnaliser les invites, ajuster le ton et la longueur, et étendre ses capacités avec le chaînage et la mémoire. Tout fonctionne sur votre appareil sans envoyer de données à des services externes, garantissant un contrôle total sur votre flux de travail email.
Fonctionnalités principales de Local LLaMA Email Agent
Importation locale de la boîte mail via API Gmail ou mbox
Résumé des threads avec LLaMA
Rédaction de réponses contextuelles
Invites et réglages de ton personnalisables
Magasin de mémoire basé sur le vecteur pour la persistance du contexte
Camel est un cadre open-source pour l'orchestration d'agents IA qui permet la collaboration multi-agent, l'intégration d'outils et la planification avec des LLM et des graphes de connaissance.
Camel AI est un cadre open-source conçu pour simplifier la création et l'orchestration d'agents intelligents. Il propose des abstractions pour chaîner de grands modèles de langage, intégrer des outils et APIs externes, gérer des graphes de connaissance et persister la mémoire. Les développeurs peuvent définir des flux de travail multi-agents, décomposer des tâches en sous-plans et surveiller l'exécution via CLI ou interface web. Basé sur Python et Docker, Camel AI permet une permutation transparente des fournisseurs LLM, des plugins d'outils personnalisés et des stratégies de planification hybrides, accélérant le développement d'assistants automatisés, pipelines de données et flux de travail autonomes à grande échelle.
HyperChat permet le chat IA multi-modèles avec gestion de mémoire, réponses en streaming, appel de fonctions et intégration de plugins dans les applications.
HyperChat est un cadre d'agent IA centré sur le développeur, qui simplifie l'intégration de l'IA conversationnelle dans les applications. Il unifie les connexions à divers fournisseurs de LLM, gère le contexte de la session et la persistance de la mémoire, et fournit des réponses partielles en streaming pour des interfaces réactives. La prise en charge intégrée des appels de fonctions et des plugins permet d'exécuter des API externes, d'enrichir les conversations avec des données et actions du monde réel. Son architecture modulaire et sa boîte à outils UI permettent un prototypage rapide et des déploiements en production sur web, Electron et Node.js.