Tongui Agent fournit une architecture modulaire pour créer des agents IA capables de maintenir l'état de la conversation, d'utiliser des outils externes et de coordonner plusieurs sous-agents. Les développeurs configurent les backends LLM, définissent des actions personnalisées et attachent des modules de mémoire pour stocker le contexte. Le framework inclut un SDK, une CLI et des hooks middleware pour l'observabilité, facilitant ainsi l'intégration dans des applications web ou Node.js. Les LLMs pris en charge incluent OpenAI, Azure OpenAI et des modèles open-source.
Fonctionnalités principales de Tongui Agent
Mémoire conversationnelle avec état
Intégration d'outils et d'actions personnalisés
Orchestration multi-agent
Support de plugins et middleware
Interfaces SDK et CLI
Hooks d'observabilité et de journalisation
Support pour les principaux backends LLM
Avantages et inconvénients de Tongui Agent
Inconvénients
Performances légèrement inférieures par rapport à certains modèles utilisant 40 fois plus de données d'entraînement.
Aucune information directe sur les prix ou les modèles de déploiement commercial au-delà du site web de base.
Informations limitées sur l'interface utilisateur ou la facilité d'intégration dans les systèmes existants.
Avantages
Ensemble de données multimodal étendu (143K trajectoires) sur plusieurs plateformes OS et applications.
Amélioration significative des tâches de grounding et de navigation pour les agents GUI.
Réduit le besoin d'annotations manuelles coûteuses en exploitant les tutoriels en ligne.
Disponibilité en open source du code, du jeu de données et des modèles entraînés.
Supporte les interactions GUI multiplateformes et diversifiées.
TypeAI Core orchestre des agents de modèles linguistiques, gère la gestion des prompts, le stockage de mémoire, l'exécution d'outils et les conversations à plusieurs tours.
TypeAI Core offre un cadre complet pour créer des agents pilotés par IA qui exploitent de grands modèles linguistiques. Il inclut des utilitaires de modèles de prompts, une mémoire conversationnelle avec stockage vectoriel, une intégration transparente d'outils externes (API, bases de données, runners de code) et un support pour des agents imbriqués ou collaboratifs. Les développeurs peuvent définir des fonctions personnalisées, gérer l'état des sessions et orchestrer des flux de travail via une API TypeScript intuitive. En abstraisant les interactions complexes avec les LLM, TypeAI Core accélère le développement d'une IA conversationnelle contextuelle et multi-tours avec un minimum de boilerplate.