Outils composable pipelines simples et intuitifs

Explorez des solutions composable pipelines conviviales, conçues pour simplifier vos projets et améliorer vos performances.

composable pipelines

  • AI Orchestra est un cadre Python permettant une orchestration modulaire de plusieurs agents IA et outils pour l'automatisation de tâches complexes.
    0
    0
    Qu'est-ce que AI Orchestra ?
    Au cœur, AI Orchestra propose un moteur d'orchestration modulaire qui permet aux développeurs de définir des nœuds représentant des agents IA, des outils et des modules personnalisés. Chaque nœud peut être configuré avec des LLM spécifiques (par exemple, OpenAI, Hugging Face), des paramètres et un mappage d'entrée/sortie, permettant une délégation dynamique des tâches. Le framework supporte des pipelines modulaires, le contrôle de la concurrence et la logique de branchement, permettant des flux complexes qui s'adaptent en fonction des résultats intermédiaires. La télémétrie et la journalisation intégrées capturent les détails de l'exécution, tandis que les hooks de rappel gèrent les erreurs et les tentatives répétées. AI Orchestra inclut également un système de plugins pour intégrer des API externes ou des fonctionnalités personnalisées. Avec des définitions de pipelines basées sur YAML ou Python, les utilisateurs peuvent prototyper et déployer rapidement des systèmes multi-agents robustes, allant des assistants basés sur le chat aux flux automatisés d'analyse de données.
  • LangGraph-Swift permet de composer des pipelines d'agents IA modulaires en Swift avec des LLM, de la mémoire, des outils et une exécution basée sur des graphes.
    0
    0
    Qu'est-ce que LangGraph-Swift ?
    LangGraph-Swift fournit un DSL basé sur un graphe pour construire des workflows IA en enchaînant des nœuds représentant des actions telles que des requêtes LLM, des opérations de récupération, des appels d'outils et la gestion de la mémoire. Chaque nœud est typé et peut être connecté pour définir l'ordre d'exécution. Le framework supporte des adaptateurs pour des services LLM populaires comme OpenAI, Azure et Anthropic, ainsi que des intégrations d'outils personnalisés pour appeler des APIs ou des fonctions. Il inclut des modules de mémoire intégrés pour conserver le contexte sur plusieurs sessions, des outils de débogage et de visualisation, et une prise en charge multiplateforme pour iOS, macOS et Linux. Les développeurs peuvent étendre les nœuds avec une logique personnalisée, permettant un prototypage rapide de chatbots, de processeurs de documents et d'agents autonomes en Swift natif.
Vedettes